人工智能所需的计算量太大以至于阻碍了其更新的进度

科技2020-08-14 13:50:14
导读

欧洲一家大型连锁超市于2019年初引入了人工智能(AI)。该公司使用AI来预测客户每天将在不同的商店购买哪些产品,从而帮助减少昂贵的产品浪费并维持库存。

该公司已经使用购买数据和简单的统计方法来预测销售。此外,除了诸如当地天气,交通状况和竞争对手趋势等其他信息外,深度学习的引入加速了AI近年来的显着进步,深度学习的引入将错误率提高到了75%。它减少了。

这恰恰是我们期望AI削减成本的效果。但是有一个很大的陷阱。新算法需要大量计算,因此该公司最终决定不使用它。

麻省理工学院说:“概括地说,除非云计算成本下降或算法变得更加有效,否则就不应该进行大规模部署。”收集此类案例研究的研究员尼尔·汤普森说。请注意,汤普森尚未透露公司名称。

汤普森指出,此案凸显了AI及其用户迫在眉睫的问题。近年来,人工智能的发展取得了飞速的发展,创造了超越人类的游戏,友善的私人助理以及在繁忙道路上自动驾驶的汽车。但是,继续取得这些进展的能力取决于不断为该问题投入更多计算资源的能力。

汤普森和其他团队在一份新论文中认为,要继续取得这些进步,我们将不会或很快将无法以相同的速度提高计算能力。这可能会扼杀计算机视觉,翻译和语言理解等领域的进一步进步。

计算量急剧增加

在过去十年中,人工智能所需的计算量急剧增加。2012年,当深度学习热潮开始时,多伦多大学的一个团队使用两个GPU在五天内创建了革命性的图像识别算法。在2019年,谷歌和卡耐基梅隆大学的研究人员在六天内开发了一种更好的图像识别算法,使用了大约1,000种特殊芯片,性能优于早期GPU。

免责声明:本文由用户上传,如有侵权请联系删除!