建立负责任的AI系统并非始于技术团队

科技2020-08-19 17:53:46
导读

马尔科姆·格拉德威尔(Malcolm Gladwell)在他的《与陌生人交谈》一书中,讨论了一项人工智能实验,该实验研究了纽约市法官进行的554,689次保释听证。正如一个在线出版物所指出的那样:“在释放的40万人中,有40%以上的人未能在随后的审判中露面,或因另一行而被捕。”但是,机器学习算法建议的拘留或释放对象的决定将导致减少25%。这是一个人工智能系统比人类更少偏见的示例。但是,并非总是如此。

人工智能系统越来越多地用于决策中。例子包括刑事司法,信贷/贷款,招聘,教育和临床诊断。在AI出现之前,联邦,州和地方法律主导着这些决定,因此它们是公正,透明和公平的。由于AI算法是从大量数据中学习的,因此AI构建的机器学习模型可以放大数据中存在的某些固有偏差。这就引出了道德上合理的人工智能系统的问题,该系统的输出不会遮盖人类的判断力。

教科文组织将“道德的AI”一词定义为“尊重人权和基本自由应被视为基本价值之一,因为必须根据国际人权标准发展,部署和采用AI技术。”提到的其他原则还包括关于歧视和偏见以及维护社会和文化多样性,不同价值体系,不同年龄段,残疾人,妇女和女童以及处境不利,边缘化和脆弱人群的特殊需求等问题的包容性AI。

人工智能和机器学习的飞速发展不仅提供了创新的解决方案,而且还带来了挑战,以理解和确定系统的道德含义。

免责声明:本文由用户上传,如有侵权请联系删除!