人工智能的种族偏见被压制了吗?

人工智能2020-07-23 23:09:51
导读人工智能(AI)和机器学习(MachineLearning)被用来驱动各种重要的现代软件技术。例如,AI支

人工智能(AI)和机器学习(MachineLearning)被用来驱动各种重要的现代软件技术。例如,AI支持分析软件、Google的错误工具和程序员的代码编译器。AI还支持执法部门、房东和普通公民常用的面部识别软件。

在人工智能软件的所有应用中,人脸识别是一件大事。依靠视频监控的大型建筑的安全团队--比如学校和机场--可以从这项技术中获益良多。人工智能算法有可能发现财产上已知的罪犯或未经授权的人。一些系统可以识别枪支,而另一些系统则可以跟踪每个人的移动,并通过一次单击就可以实时更新其位置。

美国警方使用面部识别软件成功地识别了大规模枪击嫌疑人。印度新德里警方用这种技术在四天内确认了近3000名失踪儿童的身份。人工智能软件扫描了45,000张孤儿院和寄养家庭儿童的照片,并将2,930名儿童与政府丢失的儿童数据库中的照片相匹配。这是一个令人印象深刻的成功率。

各国政府还使用面部识别软件,通过名为REFUNITE的在线数据库帮助难民找到家人。该数据库结合了来自多个机构的数据,并允许用户执行自己的搜索。

由于人工智能算法比人眼更精确,所以人脸识别软件被认为是为了提高公共安全。然而,只有当你是一个白人男性时,这才是真的。事实是,人工智能算法对女性和深色皮肤的人有一种隐含的偏见。这种偏见存在于两种主要类型的软件中:面部识别软件和风险评估软件。

例如,麻省理工学院媒体实验室的研究人员在一项实验中使用面部识别软件,将皮肤黝黑的女性误认为男性,达到35%。女性和深色皮肤患者的误差率最高。

另一个有偏见的领域出现在风险评估中。有些监狱使用计算机程序来预测每个囚犯将来的可能性。不幸的是,时间已经表明,这些评估偏向于皮肤黝黑的人。深色皮肤的人通常比浅色皮肤的人有更高的风险。问题是,在一个人通过刑事司法系统时,当局利用风险评估分数为决策提供信息。法官经常利用这些分数来确定保释金数额和一个人是否应该获得假释。

2014年,美国司法部长埃里克·霍尔德(EricHolder)呼吁美国量刑委员会研究风险评估分数的使用情况,因为他看到了存在偏见的可能性。该委员会选择不研究风险评分。然而,一家名为ProPublica的独立非营利新闻机构研究了分数,发现它们在预测暴力方面非常不可靠。他们对佛罗里达州布劳德县的7000多人进行了研究,发现只有20%的预测犯了暴力罪行。

这种偏见已经有相当长的时间了,但专家们还没有找到解决方案。如果技术还没有被政府和警方使用,人们就不会对这种错误率感到担心。

2018年,美国公民自由联盟(ACLU)进行了一项测试,看看亚马逊警方使用的面部识别软件是否带有种族偏见。结果呢?28名美国国会议员被错误地配上了凶杀案,其中包括加州代表和哈佛毕业生吉米·戈麦斯(JimmyGomez)。ACLU的测试显示,40%的假匹配涉及有色人种。

尽管错误率很高,亚马逊的面部识别工具(Rekognition)已经被警方使用。公民自由团体和立法者非常担心使用这种软件会伤害少数群体。活动人士呼吁政府监管,以防止滥用,因为这一软件的主流太快。

连续两年,加拿大移民当局拒绝了大约20多名人工智能学者的签证申请,他们希望参加一次关于人工智能的大型会议。该组织的研究人员计划教育人们了解人工智能的种族偏见,但在2018年和2019年被拒签。在对政府施加压力后,一些否认在2019年被推翻。

加拿大政府拒绝了这些签证,声称没有保证研究人员会在访问结束后离开加拿大。该组织和他们的许多支持者认为,拒绝签证是不合法的。加拿大经济经常受益于海外游客,他们在2018年的花费超过了210亿美元。为什么加拿大会连续两年否认这么多签证,除非他们试图阻止研究人员表达他们的担忧?

虽然没有直接证据表明蓄意镇压,但整个情况是奇怪的,值得彻底调查。

对女性和有色人种的性别偏见在人工智能软件中已经存在多年了,甚至在人脸识别成为主流之前就已经存在了。

由于缺乏颜色对比,更深的皮肤会使计算机算法更难识别面部特征,这是有道理的。用来训练人工智能系统的照片也有可能比深色皮肤的人和女性更多的是浅色的人和男性。这两种因素都可能导致这一问题。

当女性化妆遮住皱纹或剪短发时,电脑可能很难识别面部特征。人工智能算法只能被训练成识别模式;如果短头发被注册为一个指示男性的因素,这将扭曲结果。

虽然这个问题看起来是直截了当的,但有一个因素没有被一些面部识别批评人士解释:种族和性别偏见似乎存在于面部分析中,而不是面部识别。这两个术语可以互换使用,但是不同的过程。

当麻省理工学院对微软和IBM的面部识别工具进行研究时,他们发现这些工具的误差率低于亚马逊的Rekognition。作为回应,亚马逊对麻省理工学院的研究结果提出质疑,声称研究人员使用“面部分析”而不是“面部识别”来测试偏见。

人脸识别识别面部特征,并试图将人脸与现有的人脸数据库相匹配。面部分析使用面部特征来识别其他因素,如性别、种族或检测疲劳司机。亚马逊的一位发言人说,用面部分析来衡量面部识别的准确性是没有意义的,这是一个公平的说法。

虽然这两个过程并不一样,但面部分析在确定嫌疑人方面仍然发挥着重要作用,在被警方使用之前应该更加准确。例如,如果嫌疑人在视频中被捕获,但不能清楚地看到,没有以前的逮捕,并且不能与数据库匹配,则面部分析将用于获取嫌疑人的身份。如果那个嫌疑人是被错误地识别为男性的女性,他们可能永远找不到。

虽然这并不令人惊讶,但令人失望的是,在可能产生严重后果的情况下部署了有偏见的软件。

虽然使用面部识别软件的好处是显而易见的,但现在是时候对这一技术进行监管,并迫使开发人员在高风险情况下部署之前提高其准确性。

Frank是一名自由记者,在各种编辑能力工作了10年以上。他涵盖了与业务相关的技术趋势。

免责声明:本文由用户上传,如有侵权请联系删除!