第 12 天:评估你是否信任 AI 在测试中的作用并分享你的看法
已经到了第 12 天,现在是时候来深思一下 AI 在测试工作中的角色以及它如何赋能于测试人员了。在过去几天里,我们已经探讨了 AI 当前在测试活动中能够提供的各种支持方式。市场上有许多有趣的选择,我们实际上才刚刚开始踏上 AI 在测试领域的旅程。
然而,AI 的使用在任何情况下都可能会出现问题,这是因为存在一些问题和局限性,比如:
- 数据隐私问题
- 偏见和歧视性行为
- 结果不准确
- 出现意料之外的行为
- 目标不匹配
- AI 缺乏可解释性
这些问题仅仅是冰山一角,它们影响了我们对 AI 的信任。不过,信任程度往往取决于具体情境。让我们来看看在你的工作环境中,我们究竟应该对测试中使用的 AI 信任到什么程度。
任务步骤
研究 AI 风险:找一篇有关 AI 风险和问题的初学者文章来阅读。如果你时间不多,可以考虑阅读下面这些编辑推荐的文章:
- 人工智能的 15 大风险 - 福布斯,Bernard Marr
- AI 的挑战 - 查塔姆研究所,Kate Jones, Marjorie Buchser & Jon Wallace
思考 AI 在测试中的作用:针对你所在的测试环境,思考 AI 可能的应用方式,并且:
- 确定哪些 AI 风险可能会影响你所处环境中测试质量
- 分析这些 AI 风险中的一个或多个可能如何影响你的测试工作
- 考虑你如何防范这些风险在你的工作环境中变成实际问题?
分享你的见解:在这个帖子下回复你对测试中使用 AI 的思考。可以考虑分享以下一些或全部内容:
- 你在什么样的工作环境中?
- 引入 AI 到测试工作中会带来或增加哪些风险?
- 在你的测试环境中,有哪些地方不应该使用 AI?
- 在你的工作环境中,我们应该在多大程度上信任 AI?
- 在你的工作环境中,怎样才能增强对测试中使用 AI 的信任?
额外任务:如果你写博客,何不撰写一篇文章,并在你的回复中附上链接?
为什么参与
- 提升批判性思维:我们在测试工作中采用 AI 时,需要权衡其带来的好处和可能引入的风险和问题。通过参与此任务,你将能够提高对风险的意识,并且在思考这些问题时,不会被 AI 的热潮所蒙蔽。
任务链接
我的第 12 天任务
1.研究 AI 风险
我快速阅读了任务推荐的两篇文章,快速总结一下文章的概要
文章<人工智能的 15 大风险>的概要
人工智能带来了巨大的危险和伦理挑战。
- ❓ 缺乏透明度:复杂的人工智能决策可能导致不信任。
- 👥 偏见和歧视:人工智能会延续社会偏见。
- 🔒 隐私问题:人工智能会收集个人数据,从而引发隐私问题。
- 🛡️ 安全风险:人工智能可被用于网络攻击和自主武器。
文章<AI 的挑战>的概要
人工智能有潜在的好处和风险,但缺乏统一监管。
- ℹ️ 人工智能的定义:人工智能被定义为执行需要人类智能的任务的技术。
- ❗️ 人工智能的风险和益处:潜在的巨大优势,但也存在道德、安全和社会风险。
- ⚖️ 人工智能的监管:由于私营部门的主导和政府的追赶,缺乏统一的监管。
- ✋ 人工智能伦理问题:在设计和持续使用过程中识别和降低道德风险非常重要。
个人想法
总得来说,AI 从开始理论提出到现在相关模型和工具落地,一直都存在不清晰的道德伦理,不公共的监管和不安全的数据隐私问题。AI 的风险一直都会存在,而且我个人觉得也不会消失。
两篇文章都提到这些点,虽然大家都相信 AI 是未来,但是很多人在使用的过程中还是都会怀疑结果的准确性,数据安全和公正性,毕竟现在运营哪些 AI 工具背后的公司都有政府和营收的压力。
2.思考 AI 在测试中的作用和分享你的见解
个人认为会影响到 AI 回复测试相关结果的风险:
- 道德伦理不公正的风险肯定会影响 AI 输出测试数据和测试用例等场景的完整性,带有偏见的 AI 肯定会在结果中故意丢弃部分本身应该在的结果
- 数据隐私安全风险会让我在和 AI 对话时会比较小心,不会提供真实的上下文给到 AI,担心 AI 会收集我们的数据。特别是我们所处的互联网软件研发行业,在产品发布前期泄露数据是存在很大风险的。
为了预防这些风险导致问题发生:
- 关于道德伦理不公正的风险:我的习惯一直都是不完全使用和信任 AI 的结果,更多的是使用 AI 的结果进行思路扩展,对于 AI 测试数据和测试用例生成等场景,我一般都会对 AI 结果进行人工二次审核,确认结果的可用性
- 关于数据隐私风险:我在和 AI 对话的提示词,上下文中都会进行部分模糊处理,减少真实的项目信息和业务信息直接暴漏给 AI。
由于我所处的工作环境是负责研发客户新的互联网产品,数据隐私和数据安全问题一直是红线和高压问题,所以在项目中使用 AI 都会比较谨慎,在避免风险的大前提下会使用 AI 来帮助完成重复性或可预测的任务。
对于 AI 结果的信赖,取决于我当前需求结果的确定性有多少,如果我对需求结果已经足够清晰,使用 AI 更多是为了节省时间和提升效率,我会 100% 信任 AI 的结果。
通过使用不同 AI 工具进行日常测试,然后人工的对 AI 回复结果进行判断,确认某些 AI 工具结果的可用性足够高之后,大家才会提升对 AI 工具测试的信任
关于活动
30 天 AI 测试挑战活动是 Ministry 测试社区发起的活动,上一次我了解这个社区是关于他们发起的 30 天敏捷测试的活动。
社区官网:https://www.ministryoftesting.com
活动链接:https://www.ministryoftesting.com/events/30-days-of-ai-in-testing
挑战:
- 第一天:介绍你自己以及你对人工智能的兴趣
- 第二天:阅读有关测试中的人工智能的介绍性文章并分享
- 第三天:AI 在测试中的多种应用方式
- 第四天:观看有关测试中人工智能的任何问题视频并分享主要收获
- 第五天:确定一个测试中的人工智能案例研究,并分享你的发现
- 第六天:探索并分享对 AI 测试工具的见解
- 第七天:研究并分享提示词工程技术
- 第八天:制作详细的 Prompt 来支持测试活动
- 第九天:评估提示词质量并努力加以改进
- 第十天:批判性分析人工智能生成的测试
- 第十一天:使用 AI 生成测试数据并评估其功效
推荐阅读
欢迎关注软件测试同学的公众号“软件测试同学”,原创 QA 技术文章第一时间推送。