科技预见未来(第2版)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

Section 02 神经形态芯片与传统芯片的区别

传统计算芯片采用的是冯·诺依曼架构,通过总线连接存储器、处理器,擅长执行序列逻辑运算,有助于数据的解读和处理。随着处理数据的海量增长,总线有限的数据传输速度造成了“冯·诺依曼”瓶颈,主要体现在自我纠错能力受到局限、高功耗、低速率方面。对于正处在“后摩尔时代”的现在,传统芯片的基本性能正在一步步逼近极限。

与传统芯片相比,人脑的信息存储和处理是通过突触这一基本单元实现的,人脑中千万亿个突触的可塑性使得人脑具备强大的记忆和学习能力。

与模拟人脑的超级计算机相比,大脑具备以下三个优势:

● 低功耗:人脑的能耗仅约20瓦,而超级计算机需要数兆瓦的能量;

● 容错性:坏掉一个晶体管就能毁掉一块微处理器,但是大脑不会因为意外失去的大量脑细胞而使整套系统的功能受影响。大脑拥有强大的自我纠正和修复能力,尤其是在我们进入睡眠状态以后;

● 不需为其编制程序:大脑在与外界互动的同时也会进行学习和改变,而不是遵循预设算法的固定路径和分支运行。

神经形态芯片模仿人脑架构设计,通过硅神经元模拟突触并以大规模平行方式处理信息,模拟可变、可修饰的神经变化,从而像人脑一样,在记忆和学习功能上具备优势。传统计算芯片和神经形态芯片各自的优势和特点见表6-1。

表6-1 传统计算芯片和神经形态芯片各自的优势和特点

近年来,人工智能在硬件实现上主要是通过联立众多机器进行大型神经网络仿真,如谷歌的深度学习系统Google Brain,微软的Adam等。这些网络需要大量传统计算机的集群。例如,Google Brain 2012年的Google Cat[2]采用了1000台各配置16核处理器的计算机,单位能耗0.16兆瓦[3]。2016年的AlphaGo采用1202个CPU、176个GPU,单位能耗0.173兆瓦,这种架构尽管展现出了相当的能力,但是能耗巨大。对比而言,IBM在2015年将4096个内核、100万个硅神经元、2560万个仿突触结构集成在直径只有几厘米的芯片上(其尺寸是2011年原型的1/16),能耗不到70毫瓦。研究小组曾利用IBM的神经形态芯片做过DARPA的NeoVision2 Tower数据集演示,实验显示其能实时识别出视频[4]中的人、自行车、公交车、卡车,准确率达80%。相比之下,一台笔记本电脑编程完成同样的任务的用时要多100倍,能耗是IBM芯片的1万倍。图6-1是摩尔时代处理器处理频率与功耗的关系。

图6-1 摩尔时代处理器处理频率与功耗的关系