生长和修剪人工智能模仿大脑发育 减少能源消耗

人工智能2020-07-23 13:24:28
导读面对每天蹒跚学步的孩子生活的混乱,这可能会让父母感到震惊,但大脑的复杂性在三岁左右达

面对每天蹒跚学步的孩子生活的混乱,这可能会让父母感到震惊,但大脑的复杂性在三岁左右达到顶峰。

神经元之间的连接数量在我们最初的几年里几乎爆炸了。从那以后,大脑开始修剪这个庞大的电网中未使用的部分,到我们成年时,它的数量将减少到大约一半。幼儿大脑的过度供应使我们能够获得语言和发展良好的运动技能。但如果我们不使用,我们就输了。

现在,这种生物复杂性的起伏促使普林斯顿大学的一组研究人员创建了一种新的人工智能模型,开发出的程序只需一小部分能量就能达到或超过工业标准的精确度。在今年早些时候发表的两篇论文中,研究人员展示了如何从人工智能网络的简单设计开始,通过添加人工神经元和连接来培养网络,然后修剪掉未使用的部分,留下一个精瘦但高效的最终产品。

"我们的方法是我们称之为“增长和修剪”范式,"说,在其第三年的"当我们是一个小孩时,我们还是一个蹒跚学步的孩子时,大脑就像大脑所做的那样。"中,人脑开始在脑细胞之间切断连接。这个过程延续到成年阶段,使得完全发育的大脑在大约一半的突触峰值下工作。

"成人大脑专门接受我们提供的任何训练,"jha说."对于普通的学习来说,这并不适合作为一个蹒跚学步的大脑。"

生长和修剪导致软件需要一小部分的计算能力,因此使用更少的能量,以作出同样好的预测世界。限制能源使用是至关重要的,以获得这种先进的人工智能-所谓的机器学习-小设备,如手机和手表。

“在当地运行机器学习模型是非常重要的,因为传输(云)需要大量的精力,”前普林斯顿大学研究生、这两篇论文的第一作者戴晓亮(音译)说。戴现在是Facebook的研究科学家。

在第一项研究中,研究人员重新审视了机器学习的基础--称为人工神经网络的抽象代码结构。该团队借鉴幼儿发展的灵感,设计了一种神经网络综合工具(Nest),该工具利用20世纪80年代首次开发的复杂数学模型,从零开始重新创建了几个顶级神经网络。

巢从少量的人工神经元和连接开始,通过向网络中添加更多的神经元和连接来增加复杂性,一旦达到给定的性能基准,就会随着时间和训练而开始缩小。先前的研究人员也采用了类似的修剪策略,但从“婴儿大脑”到“幼童大脑”,以及向“成人大脑”的苗条组合,代表了从旧理论到小说演示的飞跃。

第二篇论文,包括facebook和加州大学伯克利分校的合作者,介绍了一个名为Chameleon的框架,它从期望的结果开始,向后工作,以找到适合这项工作的工具。由于一个设计的特定方面有成千上万的变化,工程师们面临着一个远远超出人类能力的选择悖论。例如:推荐电影的架构看起来不像识别肿瘤的架构。用于肺癌的系统看起来与子宫颈癌的系统不同。对于女性和男性来说,痴呆症助理看起来可能不一样。诸如此类,无穷无尽。

Jha将变色龙描述为转向设计的有利子集的指导工程师。“这给了我一个很好的邻居,我可以在CPU分钟内做到这一点,”Jha说,他指的是计算过程时间的一种度量。“这样我就能很快得到最好的建筑。”而不是整个大城市,一个人只需要搜索几条街道。

变色龙通过训练和采样相对较少的体系结构来工作,这些架构代表着各种各样的选择,然后在给定的条件下预测这些设计的性能。Facebook的一篇博文称,由于它削减了前期成本,并在精益平台上发挥作用,这种高度适应性的方法“可能会扩大目前没有资源利用这项技术的研究机构获得神经网络的机会”。

免责声明:本文由用户上传,如有侵权请联系删除!