您的位置:首页 >生活 >

人类在训练人工智能时会改变自己的行为

导读 华盛顿大学圣路易斯分校研究人员开展的一项新跨学科研究发现了人类行为与人工智能(AI)交叉领域的一个意想不到的心理现象:当被告知正在训练

华盛顿大学圣路易斯分校研究人员开展的一项新跨学科研究发现了人类行为与人工智能(AI)交叉领域的一个意想不到的心理现象:当被告知正在训练AI玩讨价还价游戏时,参与者会主动调整自己的行为以显得更加公平公正,这种冲动可能对现实世界的AI开发人员具有重要意义。

“参与者似乎有动力训练人工智能实现公平,这令人鼓舞。但其他人可能有不同的计划,”计算和数据科学系博士生、这项研究的主要作者劳伦·特雷曼(LaurenTreiman)表示。“开发人员应该知道,当人们知道它将被用于训练人工智能时,他们会有意改变自己的行为。”

这项研究发表在《美国国家科学院院刊》(PNAS)上,由应用数据科学跨学科研究所(TRIADS)提供种子基金资助,该研究所是艺术与科学战略计划的标志性举措。合著者是艺术与科学学院心理和脑科学助理教授WouterKool和麦凯维工程学院计算机科学与工程助理教授Chien-JuHo。Kool和Ho是Treiman的研究生导师。

这项研究包括五项实验,每项实验大约有200-300名参与者。受试者被要求玩“最后通牒游戏”,这是一项挑战,要求他们与其他人类玩家或计算机协商小额现金支付(仅1至6美元)。在某些情况下,他们被告知他们的决定将被用来教人工智能机器人如何玩游戏。

那些认为自己在训练人工智能的玩家更有可能寻求公平的回报份额,即使这种公平会让他们损失一些钱。有趣的是,即使他们被告知他们的决定不再用于训练人工智能,这种行为变化仍然持续存在,这表明塑造技术的经历对决策产生了持久的影响。“作为认知科学家,我们对习惯的养成很感兴趣,”库尔说。“这是一个很酷的例子,因为即使不再需要这种行为,这种行为仍会继续下去。”

不过,这种行为背后的动机尚不完全清楚。研究人员没有询问具体的动机和策略,库尔解释说,参与者可能没有感受到让人工智能更符合道德的强烈义务。他说,实验可能只是激发了他们拒绝看似不公平的提议的自然倾向。“他们可能并没有真正考虑未来的后果,”他说。“他们可能只是在选择捷径。”

“这项研究强调了人工智能训练中人为因素的重要性,”研究人类行为与机器学习算法之间关系的计算机科学家何说。“许多人工智能训练都是基于人类的决策,”他说。“如果不考虑人工智能训练过程中的人类偏见,那么最终的人工智能也会有偏见。在过去几年中,我们看到了很多因人工智能训练和部署之间的这种不匹配而出现的问题。”

例如,一些面部识别软件在识别有色人种方面不太准确,何说。“部分原因是用于训练人工智能的数据存在偏见和不具代表性,”他说。

特雷曼目前正在进行后续实验,以更好地了解训练人工智能的人的动机和策略。“考虑计算机科学的心理方面非常重要,”她说。

免责声明:本文由用户上传,如有侵权请联系删除!