引导人工智能的智能增长

资讯2020-09-29 16:55:35
导读 AI Communications上发表的一篇新论文全面介绍了欧洲AI研究人员和应用程序开发人员的道德框架,行为准则和基于价值的设计方法的发展。201

AI Communications上发表的一篇新论文全面介绍了欧洲AI研究人员和应用程序开发人员的道德框架,行为准则和基于价值的设计方法的发展。2017年春季在巴塞罗那举行的B-Debate活动上发布了“关于在欧洲正确开发和使用人工智能的巴塞罗那宣言”,以促进决策者,行业领导者,研究人员和应用开发者就AI的机遇进行进一步讨论在当前的“淘金热”环境中存在风险。

除了记录完整的巴塞罗那宣言之外,本文还探讨了其背后的基本原理,重点关注安全性,可靠性和道德问题,并评估其主要建议的进展情况。由Biocat和l'Obra Social la Caixa赞助,在ICREA,生物学研究所和人工智能研究所的支持下,B-Debate汇集欧洲顶级专家,讨论应对AI风险的战略和好处。该活动之所以独特,是因为欧洲开发商和研究人员参与了以前由美国和英国社会科学家,法律专家和商业咨询公司主导的话语。“巴塞罗那宣言”由大多数与会者签署,可在网上签名和讨论。

“鉴于对人工智能的广泛兴趣以及开发影响人们日常生活的应用程序的渴望,研究和应用程序开发社区必须进行公开讨论,以避免不切实际的期望,意外后果和导致负面影响的使用加拿大研究与高级研究机构ICREA研究教授,巴塞罗那国际教育研究所(UPF / CSIC),Luc Steels博士,研究员Lucon Lopez de Mantaras博士,研究人员Luc Steels博士说。西班牙国家研究委员会(CSIC)教授和InstitutodeInvestigaciónenInteligencia Artificial(IIIA)主任 - 巴塞罗那Bellaterra的CSIC组织了巴塞罗那活动。

虽然大多数人工智能活动都在美国和中国,但欧盟委员会和各国政府最近采取的行动表明,欧洲的研究和发展正在加速发展,而“宣言”的讨论有助于形成这种增长。一项有希望的发展是最近在欧洲H2020框架计划中的分配,用于建立一个生态系统和平台,以促进欧洲人工智能研究,正如“宣言”所要求的那样。该文件再次呼吁欧洲资助机构和公司以足以应对挑战的规模投资人工智能的发展,并以这种方式使所有欧洲地区和公民都能获利。

B-Debate,巴塞罗那宣言和快速增长的文献正在引发一些持续引起共鸣的紧迫问题:AI是否已准备好进行大规模部署?AI现在主要用于商业用途,但我们是否也可以将AI用于共同利益?我们应该鼓励哪些应用?如何解决人工智能部署中的负面影响?AI最近的技术突破是什么?它们如何影响应用程序?AI在社交媒体中应该扮演什么角色?人工智能开发和部署的最佳实践是什么?

Steels和Lopez de Mantaras评论说:“虽然人们普遍预期人工智能的快速进步会引起兴奋,但对进步的一些担忧是必要且合理的。”“人工智能部署失控的普遍担忧似乎有些牵强,但已经出现了意想不到的后果,需要紧急补救。例如,嵌入在网络和社交媒体中的算法会影响谁与谁交谈,如何选择和呈现信息,以及事实/虚假如何在公共空间中传播和​​竞争。人工智能应该(并且可能)帮助支持共识的形成而不是破坏它。人工智能系统应该清楚地表明它们是人为的而不是人类的。人类永远不应该成为人工智能的目标。“

Questions are also being explored about the reliability and accountability of AI systems based on deep learning involving rule-governed behavior (e.g. financial decision-making, human resource management, or law enforcement). Embedded biases can prevent qualified job seekers from passing screening or result in unjust parole decisions. Autonomous AI systems pose different concerns. Do we need to put limits on autonomous weapons? Who is responsible when something goes wrong with a self-driving car?

“作为设计过程的一部分,”巴塞罗那宣言已经提出了一个主动整合最佳实践的治理框架。我们相信人工智能可以成为社会利益的力量,但是对于不适当,过早或恶意存在充分的危险用于保证需要提高对人工授精局限性的认识,并采取集体行动,确保人工智能确实以安全,可靠和负责任的方式用于共同利益,“Steels和Lopez de Mantaras解释说。

虽然欧洲的人工智能环境正在通过所有这些讨论和活动迅速改变,但调查人员得出结论认为,“宣言”中提出的问题仍然具有高度相关性,并在若干优先领域重申建议:

今天更需要澄清人工智能在讨论法律和道德问题时的意思。基于知识的AI(用计算术语模拟人类知识)或数据导向学习(通常称为机器学习)之间缺乏区别。这两种方法的法律和道德问题和应用是不同的,但AI的全部潜力只能通过它们的组合来实现。

应该给AI系统多少自治的问题是,对于许多应用来说,例如武器技术或自动驾驶汽车,是最重要的。一种方法是制定治理规则和法律框架,这既是开发人员的指导方针,也是一种机制,通过这种机制,受技术负面影响的人可以寻求补救。

重点必须从更换人类工作者的机器转向补充和利用人类执行任务和做出更好的决策。关于自动化的讨论应该关注工作性质的变化,而不仅仅是工作的数量。

要在欧洲充分支持AI的开发和部署,还有很长的路要走。“宣言”有助于提高认识,并进一步推动了政府的举措,但是直接影响欧洲人工智能部署,研究和教育的具体行动和稳定的资金分配仍然很少。

免责声明:本文由用户上传,如有侵权请联系删除!