联合国报告称人工智能语音助理强化了有害性别陈定型观念

人工智能2020-07-28 07:22:27
导读女性默认声音延续了女性过时,有害的观念,根据联合国发表的一项新研究,人工智能驱动的语音助理,其中许多默认发出女性声音,正在加强有

女性默认声音延续了女性过时,有害的观念,根据联合国发表的一项新研究,人工智能驱动的语音助理,其中许多默认发出女性声音,正在加强有害的性别陈规定型观念。

标题为“如果可能的话,我会脸红”,在Siri在收到某些性别明确的命令后发出的回应之后,本文探讨了偏见在人工智能研究和产品开发中的影响以及调节社会,特别是儿童的潜在长期负面影响,将这些数字语音助理视为无条件帮助者,只为无条件服务于所有者而存在。它由联合国教育,科学和文化组织撰写,也称联合国教科文组织。

该论文认为,通过将语音助理命名为传统的女性名字,如Alexa和Siri,以及默认情况下将声音称为女性声音,科技公司已经预先禁止用户使用过时且有害的女性观念。更进一步,该论文认为,科技公司未能建立起针对敌对,辱骂和性别语言的适当保护措施。相反,像Siri所做的那样,大多数助手倾向于用狡猾的笑话来转移侵略或钟声。例如,请Siri给你做一个三明治,语音助手会回答:“我做不到。我没有任何调味品。“

科技公司通过人工智能延续了对女性的有害刻板印象

报告指出,“像苹果和亚马逊这样的公司,拥有绝大多数男性工程团队,已经建立了人工智能系统,让他们女性化的数字助理能够通过”随时随地调情“来迎接辱骂。“因为大多数语音助理的讲话都是女性,所以它会发出一个信号,表明女性是......温顺,渴望得到帮助的人,只需按一下按钮,或者用'嘿'或'OK'等语音命令”。除了指挥官的要求之外,助手没有任何代理权。它尊重命令并响应查询,无论其语气或敌意如何。“

关于科技公司以传统的,好莱坞影响的从属智能思想形象构建其整个面向消费者的人工智能平台的陷阱已经写了很多。将来,当所有互联网连接小工具始终存在于我们身边时,语音助理很可能成为与硬件和软件互动的主要模式,即所谓的环境计算的兴起。(想想斯派克琼姆的她,这似乎是对你今天可以找到的电影近期未来最准确的描述。)我们如何与日益复杂的智能互动,为这些平台提供动力,可能对我们与其他人的互动方式产生深远的文化和社会影响,并提供服务工人,以及在日常生活和劳动力中扮演更重要角色的人形机器人。

然而,正如Business Insider去年9月报道的那样,亚马逊选择了一个女性发声的声音,因为市场研究表明它将被收到更“同情”,因此更有帮助。另一方面,微软将其助手Cortana命名为现有的Halo视频游戏系列中识别女性识别AI的角色。你无法将Cortana的声音改为男性,而公司还没有说它何时会让用户这样做。Siri,它的价值,是传统上女性的斯堪的纳维亚名字,意思是古老北欧的“美丽胜利”。换句话说,这些关于AI助手性别的决定是故意制定的,之后听起来像是广泛的反馈。

人工智能研究领域主要是白人和男性

科技公司已经努力摆脱这些早期的设计决策,沉浸在刻板印象中。谷歌现在提到了各种助理语音选项,现在包括不同的口音,每种口音都有男性和女性选项,用颜色表示。您不能再选择“男性”或“女性”版本;每种颜色随机分配给每个用户的八个语音选项之一。该公司还推出了一项名为Pretty Please的计划,奖励幼儿在与Google智能助理互动时使用“请”和“谢谢”等短语。亚马逊去年发布了类似的内容,以鼓励与Alexa交谈时的礼貌行为。

然而正如报告所说,这些功能和性别语音选择还远远不够;这个问题可能会融入人工智能和技术行业本身。上个月的一份新报告发现,人工智能研究领域主要是白人和男性。80%的AI学者都是男性,只有15%的人工智能研究人员在Facebook,而只有10%的人在谷歌是女性。

联合国教科文组织表示,解决这一问题的办法是尽可能创造性别中立的助理声音,并建立系统来阻止基于性别的侮辱。此外,该报告称,科技公司应该偏离条件用户对待人工智能,因为他们是一个较小的,屈从的人,并且避免使这些有害的刻板印象永久化的唯一方法是将语音助手重新制作为有意识的非人类实体。

免责声明:本文由用户上传,如有侵权请联系删除!