本篇文章2010字,读完约5分钟
深度学习软件无疑推动了人工智能的浪潮。现在,许多公司和研究人员正在努力在软件和硬件上模拟人脑。
硬件方面,主要模拟大规模神经网络。比如谷歌的深度学习系统谷歌大脑,微软的亚当等等。但是这些网络需要大量的传统计算机集群。例如,谷歌大脑使用1000台带有16核处理器的电脑。虽然这种架构显示了相当大的能力,但它仍然消耗大量的能量。
而ibm从芯片上模仿它。:它设计了一种模拟人脑的计算机芯片,名为truenorth,并将其用作深度学习的硬件平台。目前,公司正在研究和测试芯片的性能。
深度学习的关键是算法之一——卷积神经网络。它包含大量的节点层,也称为神经元。像这样的神经网络可以通过深度结构过滤大量信息,进而实现自动识别人脸或理解不同语言的功能。
ibm最近的一项研究表明,卷积神经网络算法在支持多种神经网络的人脑硬件上也很有用。
7月9日,ibm在《国家科学院院刊》上发表了它的一项研究成果。这项研究由美国国防高级研究计划局(DARPA)资助,金额近100万美元。这一支持是该研究所皮层处理器项目的一部分,该项目旨在促进模拟人脑的人工智能研究,该研究能够识别复杂情况并适应环境变化。
达曼德拉·莫达是ibm研究中心阿尔马登人脑模拟计算项目的首席科学家。他说:
这一研究具有里程碑意义,并证实了一个明显的概念:随着深度学习效率的提高,类人脑计算的运行效率将会提高,这为新一代芯片和算法提高其工作效率和准确性铺平了道路。
2011年,ibm首次明确宣布了truenorth及其芯片原型,但基于卷积神经网络的深度学习革命始于2012年。由此可见,特鲁诺思最初并不是专门为深度学习的应用而设计的,而是特鲁诺思提出了脉冲神经网络来模拟真实生物大脑中的神经元连接结构。
脉冲神经网络中的神经元不会在每次迭代传播中被激活(但是在典型的多层感知器网络中),而是只有在它们的膜电位达到某个值之后才被激活。这有效地降低了图形认知或语言处理的运行速度。
然而,深度学习专家认为脉冲神经网络的效率与卷积神经网络相比还不够高。
Yann lecun是facebook人工智能研究所的主任,也是深度学习领域的先驱。他曾经批评过ibm的truenorth芯片,称之为草包科学。他说ibm只是复制了机器的外观,但并没有深刻理解其背后的原理。
有反对的声音,但也有支持的声音。扎卡里·蔡斯·利普顿是加利福尼亚大学(圣地亚哥)人工智能小组的深度学习研究员。他说,
Truenorth可以促进神经形态学计算的实现。重要的是要知道,对生物大脑的深度模仿和理解是神经形态学计算的功劳。
通过比较不同学者的观点,可以发现深度学习研究者通常更关心如何将实际结果应用到人工智能支持的服务和产品中。
以鸟和飞机的旧比喻为例。你可能认为卷积神经科学更多地研究鸟类;脉冲神经科学更加关注空空气动力学,而生物学是可选的。
专有计算机硬件对机器学习的好处越来越明显。因此,神经形态学芯片不令人兴奋的主要原因是脉冲神经网络在深度学习中不太受欢迎。
因此,为了使truenorth芯片更好地应用机器学习,ibm必须开发一种新的算法来帮助卷积神经网络在神经形态学计算机硬件上更好地运行。
在研究和测试中,truenorth可以对图像数据进行分类,速度为每秒1200-2600帧,能耗为25-275兆瓦。该处理器还可以识别50-100台相机以每秒24帧的速度拍摄的图片模式。
特鲁诺斯在开始深度学习测试时得到了这样的结果,这似乎给人留下了深刻的印象。然而,利普顿说,对每个人来说都要谨慎。毕竟,在视觉数据集中处理32×32像素的图像仍然存在一些问题。
然而,这并不影响modha。他怀着热切的心继续进行真北深度学习测试。他和他的同事希望芯片测试可以在无限深的学习环境中进行。这要求他们在训练神经网络时逐渐引入硬件限制,而不是从一开始就完全限制它们。
Modha还指出truenorth的优势之一是它的普遍性。许多其他深度学习硬件只能在卷积神经网络上运行,但是truenorth可以接受许多类型的人工智能网络。
Truenorth不仅可以运行卷积神经网络(虽然设计者起初并不打算这么做),而且还支持包括反馈、横向和前馈在内的多种连接模式,并且可以应用许多其他算法。
利普顿说,像这样的生物芯片只有在优于其他深度学习硬件应用的情况下才会流行。同时,他还建议ibm可以利用其硬件公司与谷歌和英特尔合作,设计用于深度学习的特殊芯片。
我认为未来肯定会有一些神经形态芯片制造商,他们会通过自己的硬件公司来加快芯片的开发,这样整个行业就会更加注重实际应用的深度学习,而不是单纯的生物模仿。
via:spectrum.ieee
延伸阅读:
Ibm模仿人脑创造了一种具有“思维能力”的芯片
Ibm进入下一代大脑芯片研究,它可以跟踪环境变化
大数据的心脏没有死,ibm推出了第一个一站式人工智能分析服务