承认错误的机器人能促进人类更好的交流

科技2020-08-06 17:23:25
导读 三个人和一个机器人组成一个团队玩游戏。 机器人犯了一个错误,使团队付出了一轮代价。 就像任何好的队友一样,它承认错误。“对不起,

三个人和一个机器人组成一个团队玩游戏。 机器人犯了一个错误,使团队付出了一轮代价。 就像任何好的队友一样,它承认错误。

“对不起,伙计们,这次我弄错了。” “我知道这可能很难相信,但机器人也会犯错。”

在耶鲁领导的一项关于机器人对人与人之间相互作用影响的研究中,这种情况多次发生。

这项研究将于3月9日发表在《国家科学院院刊》上,该研究表明,团队中的人类,包括一个表达脆弱性的机器人,彼此之间的交流更多,后来报告说,与与沉默机器人或做中立陈述的机器人合作的人相比,他们有更积极的团队体验,比如背诵游戏的分数。

博士说:“我们知道机器人可以直接影响与之互动的人类的行为,但机器人如何影响人类相互接触的方式却不太清楚。 耶鲁网络科学研究所(YINS)社会学D.候选人和该研究的主要作者。 我们的研究表明,机器人可以影响人与人之间的互动。

由于社交机器人在人类社会中越来越普遍,她说,人们在商店、医院和其他日常场所遇到它们。 这使得理解它们如何塑造人类行为变得重要。

“在这种情况下,”特雷格说,“我们表明机器人可以帮助人们更有效地进行团队交流。”

研究人员进行了一项实验,将153人分成51组,由三个人和一个机器人组成。 每个小组都玩了一个基于平板电脑的游戏,在这个游戏中,成员们共同努力,建造了30轮以上最有效的铁路路线。 组被分配到三种条件中的一种,其特征是不同类型的机器人行为。 在每一轮结束时,机器人要么保持沉默,要么发表中立的、与任务相关的声明(例如完成的分数或回合数),要么通过笑话、个人故事或承认错误来表达脆弱性;所有机器人偶尔都会输掉一轮。

研究发现,与那些发表易受伤害言论的机器人合作的人们在游戏中互相交谈的时间是前者的两倍左右,他们报告说,与其他两类群体相比,他们更喜欢这种体验。

在游戏中,当机器人做出脆弱的陈述时,人类之间的对话比当他们做出中立的陈述时更多。 当机器人易受伤害而不是沉默时,人类之间的对话分布得更均匀。

实验还表明,在弱势和中立机器人群体中,团队成员之间的言语参与比在沉默机器人群体中的成员之间更平等,这表明说话机器人的存在鼓励人们以更公平的方式相互交谈。

斯特林社会和自然科学教授尼古拉斯·克里斯塔基斯说:“我们对社会将如何变化感兴趣,因为我们在其中加入了人工智能的形式。 当我们创造人类和机器的混合社会系统时,我们需要评估如何编程机器人代理,以便它们不会腐蚀我们如何对待彼此。

一位博士说,了解机器人在人类空间中的社会影响是很重要的,即使机器人不是故意的社会功能。 计算机科学系D.候选人和该研究的合著者。

她说:“想象一下,在一个工厂里,一个机器人的任务是把零件分配给装配线上的工人。” 如果它把所有的碎片都交给一个人,它就会创造一个尴尬的社会环境,让其他工人质疑机器人是否认为自己在这项任务上处于劣势。 我们的发现可以为机器人的设计提供参考,这些机器人可以促进社会参与、平衡参与和团队工作人员的积极体验。


免责声明:本文由用户上传,如有侵权请联系删除!