科技预见未来(第2版)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

Section 03 国内外研究及产业发展现状

1.学术界研究情况

(1)欧洲

学术界最前沿的神经形态学研究,欧洲占比最大,成果突出,主要是受到欧洲“人类大脑计划”的赞助,其中聚焦神经形态的研究是仿脑工程中的一个重要大类。

人类大脑计划(Human Brain Project,HBP),开始于2013年,投资总额10亿欧元,吸纳来自24个国家800多名科学家的参与,是欧盟未来旗舰技术项目之一。计划在2023年完成一份大脑模拟图以及一系列仿脑计算原型工具。其中,德国海得堡大学和英国曼彻斯特大学是从事神经形态项目研究的主力,都试图设计出一台具有大脑认知和计算功能的计算机,两个团队采用了不同的技术路线。

海得堡大学的迈耶博士团队负责设计制造的Spikey模拟计算机,其核心的神经形态芯片是采用我们之前说的模拟式神经拟态方式,用连续变化的电压而不是采用0/1数字状态来仿真神经系统的运行方式,通过定制操作系统,仿真突触神经元间高度复杂的连通性,对神经系统建模。报告显示,该团队成功模拟出昆虫气味处理系统,可以通过闻花来判断植物种类。

曼彻斯特大学的史蒂文·菲布尔团队负责设计的搭载神经形态芯片数字计算机SpiNNaker,由定制的100万颗异步处理的微处理器所构成,用来建立1%的大脑模型并仿真,属于数字式神经拟态。该项目计划在2020年制造出性能提升10倍而规模不变或更小的计算机。

苏黎世大学与苏黎世联邦理工学校联合成立了神经信息研究所。该研究所的英迪维利博士是“人类大脑计划”(HBP)的独立负责人,研究的目标是采用神经形态学原理搭建一个自主认知系统。他们尝试利用亚阈值硅特性来开发神经形态芯片,在芯片设计中利用数模混合的方式也是神经形态芯片研制的一种路径。

(2)美国

“人类大脑计划”的美国版是“Brain 2025计划”,由美国国立卫生研究院(NIH)在2014年提请建议,同时由美国国家自然科学基金会(NSF)和美国国防部高级研究计划局(DARPA)负责全面推进,为期10年,总投资45亿美元。发现多样性、绘制多尺度图谱、活动的大脑、证实因果关系、确定基本原理、推动神经科学发展是该项目的六大优先领域,其中,神经形态技术方面的主要研究力量是IBM和HRL实验室。

IBM阿尔马登实验室位于哥斯达黎加的圣何塞,该团队与美国哥伦比亚大学、康奈尔大学,加州大学默塞德分校、威斯康辛大学麦迪逊分校四所大学合作,联合研发神经形态学计算机的原型机—SyNAPSE。他们研制开发的神经形态芯片可集成100万个硅神经元,可自己响应接收的信息,像真正的大脑一样重新连线。除神经形态芯片外,IBM还在研究其他形式的神经形态计算模式。比如2012年,IBM-劳伦斯利物莫国家实验室研制出一台名为Sequoia的超级计算机,模拟人类大脑的交流方式,使用常规电路在5000亿个神经元和1000亿个神经突触之间进行仿真交流。虽然系统的运行速度相比人脑要慢很多,但引发无限憧憬:如果用神经形态芯片来实现神经形态计算,未来到底会怎样?因此,许多计算科学家评价神经形态计算让计算发生质变。

HRL实验室位于美国加州的马里布,大股东是波音和通用汽车公司。其神经形态芯片项目采用“突触时分复用”技术来解决神经元密集网络所造成的回路干扰问题,并配置了一个中央时钟来协调所有处理进程。HRL实验室已将其开发的神经形态芯片植入仿鸟设备中,处理来自摄像机和其他传感器的数据,在试验飞行中,设备可以记住飞过的房间,自主学会导航,该技术应用在无人机自动绘制地图、导航等方面,该成果非常受DARPA重视。

美国斯坦福大学卡贝·纳博罕团队的研究重点关注模拟人脑的神经形态计算方式,其开发的控制型机器人配置了百万个硅神经元网格,可在任务范围内感知周围环境,并将模拟的神经反应以指令输出由末端执行器完成。

英特尔于2019年推出了类脑芯片系统Pohoiki Beach,它包含4个128核心、14纳米制程的Loihi神经形态芯片,是一款模拟800万神经元的64芯片计算机。其中,Loihi芯片于2017年发布,单个芯片包含20亿个晶体管、13万个人工神经元和1.3亿个突触,并附有三个管理Lakemont核心用于任务编排,单个芯片尺寸为60毫米。Loihi芯片拥有可编程微码学习引擎,可在片上完成异步脉冲神经网络(SNN)的训练功能。SNN是一种将时间结合进模型操作的特殊AI模型,可以让模型的不同组件不会同时被输入处理。SNN被认为可以高效实现自适应修改、基于事件驱动和细粒度平行计算。在计算任务中,Loihi的计算速度和能耗效率分别是传统CPU的1000倍和10000倍。凭借高效率、低功耗的特征,Pohoiki Beach类脑芯片系统和Loihi神经芯片有望成为AI算法发展的新动力,特别是在图像识别、自动驾驶和自动化机器人等方面的潜力巨大。目前,该芯片系统已免费向美国的60个研究机构提供,致力于最尖端的AI领域提升系统解决复杂密集问题的能力,如冗余编码、路径规划等。

(3)中国

浙江大学和杭州电子科技大学成功研发出了一款名为DARWIN(达尔文)的神经形态芯片,该芯片提高了智能算法的处理速率。“达尔文”芯片的大小为5×5平方毫米,是一款采用标准CMOS工艺实现的基于脉冲神经网络的类脑硬件协处理器(类脑芯片)。“达尔文”芯片就像一个简化的动物大脑,最多可支持2048个神经元、400多万个神经突触及15个不同的突触延迟。

2020年9月1日,浙江大学联合之江实验室发布共同研发的基于自主产权类脑芯片的亿级神经元类脑计算机(Darwin Mouse)。该计算机包含792颗浙江大学研制的达尔文二代类脑芯片,支持1.2亿脉冲神经元、近千亿神经突触,与小鼠大脑神经元数量规模相当,典型运行功耗只需要350~500瓦,也是国际上近期发布的神经元规模最大的类脑计算机。该团队还研制了专门面向类脑计算机的操作系统——达尔文类脑操作系统(DarwinOS),用于实现对类脑计算机硬件资源的有效管理与调度,支撑类脑计算机的运行与应用。

清华大学类脑计算研究中心2019年发布了名为“天机芯”的类脑计算芯片,该芯片应用于自动驾驶的自行车上,是世界首款面向人工通用智能的异构融合类脑计算芯片,其“可以支持脉冲神经网络,也可以支持人工神经网络,而传统类脑芯片只能选择其中之一。

2.产业发展

神经形态芯片从1989年提出到现在,已经不是什么新概念,之所以再度成为热点强势回归,是因为神经形态计算已从象牙塔走进了广泛研究和应用范畴。

Audience公司基于人的耳蜗研发设计出一款神经形态芯片,主要功能是抑制噪声,全球出货量已达几亿片,并在苹果、三星等公司出产的手机中使用。

Intel公司在2012年宣布启动了一项模拟人类大脑活动的技术研究工作。其神经形态芯片设计采用模拟式神经拟态的思路以及忆阻器技术,模仿神经元搭建芯片机构;在降低功耗方面,采用横向自旋阀技术,工作终端电压在毫伏内,远低于传统芯片。目前,未有新消息披露该芯片进展。

IBM一直在从事神经形态芯片的研究,IBM的TrueNorth神经形态芯片模拟大脑结构和突出可塑性,构建认知计算芯片。2008—2016年,DARPA投资2100万美元支持其SyNAPSE[5]项目第二阶段的研究,目的是创造既能同时处理多源信息又能根据环境不断自我更新的系统。该芯片没有固定编程,通过集成内存与处理器来模仿大脑的事件驱动、分布式和并行处理方式。IBM发布的TrueNorth神经形态芯片(图6-2),集成了54亿个晶体管,形成了一系列由百万个“数字神经元”构成的阵列,可模拟2560万个“神经突触”的计算架构系统,被业界公认为具备把神经形态计算从实验室推向现实世界的潜质。2019年IBM曾计划利用88万个CPU,研制出与人脑速度相当的模拟人脑系统。

图6-2 IBM的TrueNorth神经形态芯片

高通的Zeroth神经形态芯片类似于IBM的数字式神经拟态,通过编程模拟大脑处理感官数据处理时的电子脉冲,从而模拟大脑行为。高通的战略意图是在设备中加入这样的神经处理单元来帮助处理传感器数据,完成图像识别和机器人导航的任务,让更多的设备变成用户的认知伴侣,进而寻求智能时代的下一轮突破,占据芯片产业新的制高点。高通的第一步就是与Brain Corp公司合作,开发eyeRover神经形态智能机器人,试图通过机器人与真实世界进行互动,验证研究成果,随后再进行转化和适配,推广到智能手机或者其他产品上。eyeRover机器人内置神经形态芯片,在硅片中模仿人脑大规模平行方式处理信息的方式,所运行的BrainoS系统可实现监督学习和强化学习等功能,是一台真正可训练的机器人。

根据Markets-and-Markets公司《2016—2022年全球神经形态芯片市场预测》报告,整体神经形态芯片市场在2016年时约有12亿美元的价值,并以26.3%的复合年成长率增长,在2022年时达到48亿美元的市场规模。

IBM、高通都在做面向消费者市场的神经形态芯片,试图颠覆英特尔的“英特尔处理器”(Intel Inside),做“人类大脑处理器”(Human Brain Inside),统治新时代。其中,高通公司在神经形态技术上一开始就着眼垂直化的技术架构以及商业化的前瞻布局,从芯片到设备再到平台,从硬件上寻求增强机器认知的新途径。

在人工智能被视为开启下一个创新时代的今天,芯片产业界正在积极寻求新一轮打开新时代的钥匙。