第 12 天:评估你是否信任 AI 在测试中的作用并分享你的看法

已经到了第 12 天,现在是时候来深思一下 AI 在测试工作中的角色以及它如何赋能于测试人员了。在过去几天里,我们已经探讨了 AI 当前在测试活动中能够提供的各种支持方式。市场上有许多有趣的选择,我们实际上才刚刚开始踏上 AI 在测试领域的旅程。

然而,AI 的使用在任何情况下都可能会出现问题,这是因为存在一些问题和局限性,比如:

  • 数据隐私问题
  • 偏见和歧视性行为
  • 结果不准确
  • 出现意料之外的行为
  • 目标不匹配
  • AI 缺乏可解释性

这些问题仅仅是冰山一角,它们影响了我们对 AI 的信任。不过,信任程度往往取决于具体情境。让我们来看看在你的工作环境中,我们究竟应该对测试中使用的 AI 信任到什么程度。

任务步骤

  • 研究 AI 风险:找一篇有关 AI 风险和问题的初学者文章来阅读。如果你时间不多,可以考虑阅读下面这些编辑推荐的文章:

  • 思考 AI 在测试中的作用:针对你所在的测试环境,思考 AI 可能的应用方式,并且:

    • 确定哪些 AI 风险可能会影响你所处环境中测试质量
    • 分析这些 AI 风险中的一个或多个可能如何影响你的测试工作
    • 考虑你如何防范这些风险在你的工作环境中变成实际问题?
  • 分享你的见解:在这个帖子下回复你对测试中使用 AI 的思考。可以考虑分享以下一些或全部内容:

    • 你在什么样的工作环境中?
    • 引入 AI 到测试工作中会带来或增加哪些风险?
    • 在你的测试环境中,有哪些地方不应该使用 AI?
    • 在你的工作环境中,我们应该在多大程度上信任 AI?
    • 在你的工作环境中,怎样才能增强对测试中使用 AI 的信任?
  • 额外任务:如果你写博客,何不撰写一篇文章,并在你的回复中附上链接?

为什么参与

  • 提升批判性思维:我们在测试工作中采用 AI 时,需要权衡其带来的好处和可能引入的风险和问题。通过参与此任务,你将能够提高对风险的意识,并且在思考这些问题时,不会被 AI 的热潮所蒙蔽。

任务链接

https://club.ministryoftesting.com/t/day-12-evaluate-whether-you-trust-ai-to-support-testing-and-share-your-thoughts/75102

我的第 12 天任务

1.研究 AI 风险

我快速阅读了任务推荐的两篇文章,快速总结一下文章的概要

文章<人工智能的 15 大风险>的概要

人工智能带来了巨大的危险和伦理挑战。

  • ❓ 缺乏透明度:复杂的人工智能决策可能导致不信任。
  • 👥 偏见和歧视:人工智能会延续社会偏见。
  • 🔒 隐私问题:人工智能会收集个人数据,从而引发隐私问题。
  • 🛡️ 安全风险:人工智能可被用于网络攻击和自主武器。

文章<AI 的挑战>的概要

人工智能有潜在的好处和风险,但缺乏统一监管。

  • ℹ️ 人工智能的定义:人工智能被定义为执行需要人类智能的任务的技术。
  • ❗️ 人工智能的风险和益处:潜在的巨大优势,但也存在道德、安全和社会风险。
  • ⚖️ 人工智能的监管:由于私营部门的主导和政府的追赶,缺乏统一的监管。
  • ✋ 人工智能伦理问题:在设计和持续使用过程中识别和降低道德风险非常重要。

个人想法

总得来说,AI 从开始理论提出到现在相关模型和工具落地,一直都存在不清晰的道德伦理,不公共的监管和不安全的数据隐私问题。AI 的风险一直都会存在,而且我个人觉得也不会消失。

两篇文章都提到这些点,虽然大家都相信 AI 是未来,但是很多人在使用的过程中还是都会怀疑结果的准确性,数据安全和公正性,毕竟现在运营哪些 AI 工具背后的公司都有政府和营收的压力。

2.思考 AI 在测试中的作用分享你的见解

个人认为会影响到 AI 回复测试相关结果的风险:

  • 道德伦理不公正的风险肯定会影响 AI 输出测试数据和测试用例等场景的完整性,带有偏见的 AI 肯定会在结果中故意丢弃部分本身应该在的结果
  • 数据隐私安全风险会让我在和 AI 对话时会比较小心,不会提供真实的上下文给到 AI,担心 AI 会收集我们的数据。特别是我们所处的互联网软件研发行业,在产品发布前期泄露数据是存在很大风险的。

为了预防这些风险导致问题发生:

  • 关于道德伦理不公正的风险:我的习惯一直都是不完全使用和信任 AI 的结果,更多的是使用 AI 的结果进行思路扩展,对于 AI 测试数据和测试用例生成等场景,我一般都会对 AI 结果进行人工二次审核,确认结果的可用性
  • 关于数据隐私风险:我在和 AI 对话的提示词,上下文中都会进行部分模糊处理,减少真实的项目信息和业务信息直接暴漏给 AI。

由于我所处的工作环境是负责研发客户新的互联网产品,数据隐私和数据安全问题一直是红线和高压问题,所以在项目中使用 AI 都会比较谨慎,在避免风险的大前提下会使用 AI 来帮助完成重复性或可预测的任务。

对于 AI 结果的信赖,取决于我当前需求结果的确定性有多少,如果我对需求结果已经足够清晰,使用 AI 更多是为了节省时间和提升效率,我会 100% 信任 AI 的结果。

通过使用不同 AI 工具进行日常测试,然后人工的对 AI 回复结果进行判断,确认某些 AI 工具结果的可用性足够高之后,大家才会提升对 AI 工具测试的信任

关于活动

30 天 AI 测试挑战活动是 Ministry 测试社区发起的活动,上一次我了解这个社区是关于他们发起的 30 天敏捷测试的活动。

社区官网:https://www.ministryoftesting.com

活动链接:https://www.ministryoftesting.com/events/30-days-of-ai-in-testing

挑战

推荐阅读


欢迎关注软件测试同学的公众号“软件测试同学”,原创 QA 技术文章第一时间推送。