为了使AI发挥其潜能 其风险必须是可见的

人工智能2020-08-19 20:28:57
导读

2019年,人工智能(AI)的嗡嗡声被对其潜在危险的保留所抵消。弗朗西斯教皇,五角大楼和欧盟委员会都对它的使用表示谨慎。

但是,Covid-19大流行在全球范围内的发展正在重新激发人们对其使用的热情,一些人将AI视为灵丹妙药,从而强调了其了解病毒,预测其如何进化以及更有效地抵抗其传播的能力。

州和公司同样在传播健康错误信息,并部署注入AI的监视技术,但不保证所收集的数据以及所产生的见解只能用于解决流行病。这让许多人深感担忧。

为了使AI发挥其潜能,其风险必须是可见的,并应予以积极管理。本文为经理们提供了五项可行的建议,以帮助经理们在这一关键时刻有效地做到这一点。

五个基本教训

该建议建立在对一家大型欧洲保险公司的经理和员工进行的一系列采访的基础上,他们开始努力在面向客户的环境中开发支持AI的流程和服务。保险公司对可信赖的AI的兴趣正在迅速增加,因为客户的信任对其业务至关重要。我们的研究属于巴黎高等商学院可持续发展与社会创新硕士课程的一部分,着重于风险感知,了解在创新过程中如何,如何以及由谁识别AI风险。

建议1:对AI有一个清晰的定义,以开始评估其风险

公司需要对AI可能造成的危害有清晰的了解。如果没有公司范围内明确的定义,员工和经理往往会依赖于自己的假设,并预计它会如何影响其工作场所。一旦损害已经形成,组织往往太迟了才知道这些声誉和其他成本是什么。例如,这家技术公司花了一年的时间才发现其招聘引擎并非不分性别,并且其声誉受到打击。

建议2:意识到自己对AI的偏见

我们发现,个人倾向于根据特定的假设来锚定对AI风险的期望。这些假设不仅是由媒体消费(恐惧或幻想)引起的,而且还取决于个人在公司中的职位。例如,管理人员倾向于将AI风险视为技术性(鲁棒性,隐私权,透明度),而员工则倾向于将AI风险视为社会性(监视,工作流离失所,歧视性偏见)。这些期望导致双方低估了AI的总体风险,而忽视了它们在孵化过程中出现的风险。

免责声明:本文由用户上传,如有侵权请联系删除!