自从生成式人工智能引起公众关注以来,关于科技行业未来走向的猜测层出不穷。
这些大语言模型是否会取代某些职位,使某些工作类别变得过时?被人工智能取代的想法可能令人不安。
然而,在软件开发和测试领域,生成式人工智能更适合成为合作伙伴而非威胁。它更像是一个助手,旨在增强人类的能力,而不是取代人类。
如果负责任地使用生成式人工智能,它有可能提高生产力和质量;但如果使用不当,就会起相反的效果。这种责任取决于人类能否保持控制,无论是在指挥人工智能还是评估其输出方面。负责任的人工智能监管通常需要领域专业知识,才能识别人工智能输出中的错误和风险。在熟练的人员手中,人工智能可以成为强大的放大器;但在缺乏足够理解的人手中,它也很容易被误导,并可能导致不良后果。
由于受制于给定的提示语和训练数据,生成式人工智能可能会遗漏关键细节、做出错误假设并延续既有的偏见。它也缺乏真正的创造力,因为它只是简单地识别、复制和随机化学习到的模式来生成输出。
此外,虽然生成式人工智能擅长生成类似人类的文本,但复制语言模式的能力并不等同于领域专业知识;人工智能可能看似自信满满,但实际上给出的建议却存在根本性的缺陷。
模型的不透明性进一步放大了这种风险,使其内部推理过程难以理解,错误也更难发现。
归根结底,人工智能的局限性凸显了人类监督的重要性。
软件开发者和测试人员必须认识到这项技术固有的局限性,将其视为得力助手,而非孤立的权威。通过运用情境化的批判性思维和专业知识进行指导,并仔细审查和修正其输出,人类软件从业者可以充分利用生成式人工智能的优势,同时弥补其不足。
机器可以高速执行测试套件,但它们缺乏根据潜在用户或不断变化的业务优先级来设计、确定测试优先级和解读测试的洞察力。人工测试人员会结合对产品、项目和相关人员的洞察,在兼顾技术考量和业务目标的同时,兼顾监管和社会影响。
生成式人工智能不会从根本上改变测试的本质。
虽然人工智能可以提出测试思路,并以其他自动化技术无法做到的方式将测试人员从重复性任务中解放出来,但它缺乏充分评估软件功能、安全性、性能和用户体验所必需的情境感知和批判性思维。
在测试中负责任地使用生成式人工智能需要测试人员在指导和检查人工智能的过程中进行人工监督。由于生成式人工智能依赖于其训练内容和提示方式,因此人类的专业知识对于应用情境、意图和现实世界的约束仍然不可或缺。
在明智的引导下,生成式人工智能可以帮助熟练的测试人员更有效、更高效地测试他们的产品,而无需取代人类的智慧。
编辑:万能的大雄
本文为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。