DARPA引入了人工智能的第三次浪潮

人工智能2020-08-26 15:23:23
导读 五角大楼正在推出一种名为AI Next的新型人工智能推动器,旨在改善机器与人类之间的关系。作为多年计划的一部分,美国国防高级研究计划

五角大楼正在推出一种名为“AI Next”的新型人工智能推动器,旨在改善机器与人类之间的关系。

作为多年计划的一部分,美国国防高级研究计划局(DARPA)将在该计划中投入超过20亿美元。

在该计划的宣传材料中,DARPA称AI Next将加速“第三次浪潮”,使机器能够适应不断变化的情况。

例如,自适应推理将使计算机算法能够基于对周围单词的分析来识别“主要”和“原则”的使用之间的差异,以帮助确定上下文。

DARPA主任Steven Walker博士说:

“今天,机器缺乏上下文推理能力,他们的培训必须涵盖所有可能性 - 这不仅成本高昂 - 而且最终是不可能的。

我们希望探索机器如何获得类似人类的沟通和推理能力,以及识别新情况和环境并适应它们的能力。“

DARPA将第一波人工智能定义为能够“推理狭义问题”,但确定性较差。它声称,第二波可以“创建统计模型并对大数据进行训练”,尽管只有极少的推理。

远离脚本响应是人工智能的下一个目标。在人类人工智能联合多方会议上进行的一项调查发现,37%的受访者认为,人类智能人工智能将在5到10年内实现。

AI Next还将涉及7月份宣布的DARPA人工智能探索(AIE)计划。

AIE是DARPA关于开发人工智能概念的倡议,它认为它是高风险但高回报的。目的是在一年半的时间内确定此类项目的可行性。

想要从全球思想领袖那里听到更多关于AI这样的话题吗?了解有关圣克拉拉,伦敦和阿姆斯特丹的AI Expo展览的更多信息。

相关项目:AI,人工智能,DARPA,防御,防御,特色,政府,军事,五角大楼,第三波 为你推荐

中国失去了老年人面部识别面孔ai人工智能监视中文 中国警方将使用人工智能人脸识别来识别“失去的”老人 emonet神经网络ai人工智能情感感受 EmoNet:情绪神经网络自动分类感受 三星研究人员创建了AI,可以生成逼真的视频场景3D渲染 1条评论

伦理研究发现,企业领导者确保在组织内负责任地使用AI

由詹姆斯·伯恩发表于 2018年9月24日 (C)中ISTOCK.COM/JUST_SUPER

最近由SAS,埃森哲应用智能,英特尔和福布斯Insights进行的联合研究表明,企业领导者正在考虑采取各种措施,以确保在其组织内负责任地使用AI。

这份名为“人工智能,成熟和成功模式”的报告指出,大多数人工智能采用者占全球组织的72%,他们为技术专家进行培训,并设立了道德委员会来审查人工智能的使用。这些技术专家总数为70%,而道德委员会为63%。共有305名国际商业领袖接受了调查,其中一半以上是首席信息官,首席技术人员和首席分析官。据透露,92%的人工智能领导者接受道德培训,而48%的其他AI采用者。

埃森哲应用智能公司负责AI的负责人Rumman Chowdhury表示:“组织已经开始解决人工智能已经引起的担忧和失常,例如对人们的偏见和不公平待遇。这些是积极的步骤; 然而,组织需要超越具有希波克拉底誓言精神的定向AI道德准则,以“不伤害”。

“他们需要提供规范,具体和技术指导方针,以开发安全,透明,可解释和负责任的人工智能系统,以避免可能对个人,企业和社会造成伤害的意外后果和合规性挑战,”Chowdhury补充说。

处于这种变化核心的公司也在研究AI中的责任和道德。例如,IBM正在推出名为Fairness 360 Kit的工具,该工具将分析算法如何以及为何实时做出决策。据说它可以扫描偏见的迹象并建议调整。通过可视化仪表板,用户将能够看到他们的算法如何做出决策以及在制定最终建议时使用了哪些因素。

免责声明:本文由用户上传,如有侵权请联系删除!