智能+:制造业的智能化转型
上QQ阅读APP看书,第一时间看更新

一、人工智能的过去、现在和未来

1956年,约翰·麦卡锡(John McCarthy)、明斯基等科学家在美国达特茅斯学院举办关于“如何用机器模拟人的智能”的学术研讨会,首次提出了人工智能的概念,这标志着“人工智能”作为一门科学的诞生[2]。狭义的人工智能是指类比人脑的人造算法与应用,但随着科技的发展和历史的演进,它的内涵正在不断地扩大和泛化。广义的人工智能是以人造智能活动为目的的所有技术与应用的统称,涵盖了对应着人类视觉能力、语言文字能力、听说能力、运动能力和运动智能、对抗与合作能力、学习能力的计算机视觉、自然语言理解与交流、语音识别与生成、机器人学、博弈与伦理、机器学习六大学科,并且学科之间呈现交叉发展的态势。

自20世纪50年代以来,人工智能历经曲折的发展过程,出现过3次发展的热潮。20世纪50至60年代迎来了人工智能发展的第一次热潮,许多基本的原理被提出,图灵提出的“图灵测试”被普遍接受为判断机器是否拥有“智能”的标准。20世纪80至90年代迎来了人工智能发展的第二次热潮,但是在IBM的深蓝战胜人类国际象棋世界冠军卡斯帕罗夫(Kasparov)、引爆人们的热情后就陷入低谷。2006年则迎来了人工智能发展的第三次热潮,与前两次的不同在于,人工智能在当下已经在生产、生活的许多领域获得实实在在的应用,创造出真正的价值,而不仅是领域内的自娱自乐[3]

(一)历史上的人工智能:理论+专家系统

人工智能的主要技术流派根据其所模拟的信息处理方法不同而分为两大类:经典逻辑或符号主义——也称为有效的老式人工智能(Good Old-Fashioned AI,GOFAI)与人工神经网络或联结主义。符号主义和联结主义是人工智能技术发展历史中竞争最为激烈的两大流派,在人工智能几十年的发展中交替引领人工智能理念和技术的潮流。受现代数学和物理知识由公理到定义、引理、定理再到推论的系统化公理体系启发,一些科学家认为人工智能应当应用逻辑推理法则[4],从公理出发推演整个理论体系,这一类理论被称为符号主义。另一些科学家认为,人类大量视觉、听觉信号的感知处理是基于大脑皮层神经网络的下意识反应,这类人工智能理论的基本思想是模拟人类大脑的神经元网络,被称为联结主义。

1.符号主义

符号主义的数理逻辑在19世纪末得到迅速发展,20世纪30年代开始用于描述智能行为,并在之后的计算机上实现了逻辑演绎[5]。20世纪50年代后期搜索式推理被提出,其基本算法是为实现一个目标(如赢得游戏或证明定理)步步推进(如碰壁则回溯)。这一思想遇到的主要困难是,在很多问题中,推进的可能线路总数是一个天文数字,即所谓“指数爆炸”问题[6]。其他应用逻辑推理的人工智能早期案例还有:基于搜索算法证明几何与代数问题的定理证明机;按固定套路作答,或者用符合语法的方式将问题复述一遍的聊天机器人ELIZA等。20世纪70年代初,受当时计算机有限的内存和处理速度限制,人工智能系统无法应对计算复杂性和“指数爆炸”;同时,因严重缺乏对世界认知的数据,人工智能系统无法具备常识与推理能力,符号主义的发展遭遇瓶颈。

2.联结主义

联结主义是20世纪30年代末到50年代初一系列神经学、控制论、信息论、计算理论科学发展和交汇的产物。最早描述“神经网络”的学者沃尔特·皮茨(Walter Pitts)和沃伦·麦卡洛克(Warren McCulloch)分析了理想化的构建人工神经元网络的脑模型,即MP模型(McCulloch-Pitts Model),开创了用电子装置模仿人脑结构和功能的途径。20世纪60至70年代,弗兰克·罗森布拉特(Frank Rosenblat)提出了以“感知机”为代表的脑模型。但由于受到当时的理论模型、生物原型和技术条件的限制,联结主义在20世纪70年代初期至80年代初期陷入低潮。直到1982年,物理学家约翰·霍普菲尔德(John Hopfield)证明了一种新型的神经网络,同时期,戴维·鲁梅尔哈特(David Rumelhart)推广了反向传播算法,这才使联结主义重获新生。

客观地看,人类知识体系的建立、发展只有几千年的时间,而人类自身却是数十万年自然进化的结果。丹麦计算机学家艾兹格·迪科斯彻(Edsger Dijkstra)有一句著名的评论:“机器是否能思考,与潜水艇是否能游泳的问题很像”。人工智能对人类思维和行为的模拟,并不是完全形神兼备的复制。人类自身的机制也还有太多未解之谜,人类至今对大脑如何实现认知、记忆、思考还没有完全明晰的认识,因此在何种层面上进行人脑运作的模拟才能制造出拥有思考能力的智慧机器仍属未知。人工智能需要通过全新的形式来定义和表达智能,在这个过程中,模拟仅仅是第一步[7]

3.专家系统

专家系统是人工智能的一个重要分支,20世纪60年代作为一门新兴的应用科学产生并发展起来。1982年斯坦福大学教授费根鲍姆(Feigenbaum)将专家系统定义为:一种使用知识与推理过程求解那些需要由杰出人物所掌握的专门知识才能求解的复杂问题的、智能的计算机程序[8]

人工智能的早期工作绝大部分属于学术性质。1965年斯坦福大学在美国国家航天局要求下研制了DENDRAL系统,它集成了丰富的化学知识,被应用于不少大学及产业界的化学实验室,该系统的完成标志着专家系统的诞生。在此之后,数学家助手系统Macsyma、语音识别专家系统Hearsay、内科病咨询诊断系统INTERNIST相继问世。以上系统的发展使专家系统受到学术界及工程领域的关注。20世纪80年代中期以后,出现了大量投入商业化运行的专家系统,其中一个著名的例子是数据设备公司(Digital Equipment Corporation,DEC)与卡内基梅隆大学合作开发的专家系统XCON,它用于辅助DEC计算机系统的配置设计,每年可为DEC节省至少数百万美元。

专家系统作为早期人工智能突破性发展的代表,标志着符号主义的重大突破。然而,科学家们试图建立容纳一个普通人知道的所有常识的知识库系统,经过了几十年却仍未成功。依据一组从专门知识中推演出的逻辑规则并在某一特定领域回答或解决问题的专家系统,无法应对较为复杂的情况,其应用仅限于一个很小的知识领域,不能解决需要极其复杂逻辑推理的“常识问题”。但不可否认,专家系统简单的设计使其编程或修改较为容易,这样具有很高实用性的特点为人工智能走向实际应用起到了重要推动作用。

(二)当前的人工智能:大数据+深度学习

人工神经网络在20世纪80年代末至90年代初达到巅峰后迅速衰落,其重要原因在于,随着网络层数的增加,最终输出结果对初始基层参数的影响会逐步减弱,因此训练过程无法完全收敛。但同时,科学家发现大脑区域的功能区分在不同物种的大脑皮层呈现出一致性。对大脑的研究结果让科学家意识到人类的基因只提供学习机制,人类的大脑有着极强的可塑性,大脑的思维形成主要靠后天学习与反复训练。这些发现鼓舞着计算机科学家们探求人工神经网络训练的新途径,终于在2006年取得“深度学习”技术的突破。在加拿大高等研究院(Canadian Institute for Advanced Research,CIFAR)的资助下,杰弗里·辛顿(Geoffrey Hinton)在2006年发表了突破性的论文A Fast Learning Algorithm for Deep Belief Nets,其中介绍了一种成功训练多层神经网络的方法,他称之为“深度信念网络”[9]

2016年以来,深度学习技术的代表——Alphabet旗下DeepMind公司的AlphaGo接连战胜李世石、柯洁等世界顶尖围棋选手,重新引发大众对人工智能未来发展的关注。与大多数传统机器学习由人来设计不同,无人管理的深度学习是由算法学习和创建的一种需要训练大型神经网络的“多层”层次结构,且每层可以解决不同方面的问题,从而使整个系统能解决更为复杂的问题。

除了以深度学习为核心的算法演进之外,人工智能第三次热潮的到来还依赖于计算机处理能力和运算速度的提高以及海量数据的可获得性。一方面,随着图形处理器(Graphics Processing Unit,GPU)在人工智能领域的使用、专用人工智能芯片的开发以及云计算的发展,计算机的处理能力和运算速度获得大幅度提高,支持多层神经网络的巨大计算量成为可能;另一方面,互联网技术的发展和广泛应用产生了海量的数据。深度学习方法以大量数据为素材进行训练,从中高效地寻找新规律或新知识。硬件是发动机,数据是燃料,“机器”凭借卓越的计算能力、利用深度学习方法、以海量数据为素材进行训练,智能程度显著提高。核心算法、算力、数据资源的大幅进步推动计算机视觉、语音及自然语言处理等人工智能技术实现了商业化。可以说,当前的人工智能=深度学习+大数据,这是一个极具时代精神、也被普遍接受的认识[3]

与20世纪50年代人工智能的概念刚提出时相比,人工智能技术的发展已经发生了翻天覆地的变化。目前,深度学习已在多个领域获得实际应用,进入日常生活与生产活动。日常生活中有许多典型应用,例如,Face2Face利用人脸捕捉,让你在视频里实时扮演另一个人;Let there be color运用深度学习网络学习,不需要人类的介入就能对照片进行重新上色等。产业界已广泛运用深度学习技术,实现工业中的数据可视化分析、机器自我诊断、预测性维护等功能。随着对心理学、生物学等各种学科的深入研究和应用,未来人工智能的技术发展将越来越多地融合不同的信息处理方法,应用场景也会更为广泛。

(三)未来的人工智能:小数据+大任务

自人工智能的概念被提出后,其理论和实现技术不断演化,其概念、内涵也在不断发生变化。例如,在人工智能发展的初期,人们认为能战胜人类的国际跳棋程序、国际象棋程序就是人工智能,但随着计算机技术的发展,具有这种能力的计算机程序很快在人们的日常娱乐中普及从而褪去光环[10]。深度学习+大数据虽然成为当前人工智能发展的主要方向,但也存在其固有的局限,甚至随着人工智能技术的不断进步,建立在大数据基础上的深度学习也会被看作“小儿科”,人们对于人工智能又会有新的认识。

第一,“莫拉维克悖论”。从1997年IBM的深蓝首次击败国际象棋世界冠军卡斯帕罗夫开始,到AlphaGo(后进化出Master和Zero版本)横扫围棋棋坛,“人机大战”总能赚足眼球。尽管人工智能在国际象棋、围棋等领域已经超过人类,但是许多对人类来说很简单,甚至下意识的动作对机器来说却困难重重,这就是人工智能领域重要的莫拉维克悖论(Moravec’s Paradox):“要让电脑如成人般下棋是相对容易的,但是要让电脑有一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。”例如,人类能够轻而易举地进行举一反三,看到一次小猫后就能在以后识别出小猫,而人工智能系统需要给它输入成千上万张做过标记的图片才能形成小猫的概念。在许多场景下,海量数据的形成需要人类从事大量很不智能的工作,如人工对小猫图片进行标注。

第二,“大数据、小任务”(Big Data For Small Task)。智能是一种现象,机器人的脑、人脑都可以看成一个模型,任何一个模型都由数据与任务来共同塑造。当前的很多深度学习方法,属于概率统计框架下的“大数据、小任务”范式。它们针对某个特定的任务,如人脸识别和物体识别,设计一个简单的价值函数,用大量数据训练特定的模型。专家系统建立在总结有限经验的基础之上,而深度学习基于有限数据的训练。目前的人工智能系统只擅长某一方面的工作,很难举一反三,还属于专用人工智能而非通用人工智能。AlphaGo在围棋领域战无不胜,但若要让它参加在线游戏比赛,则必须重新设计代码并进行训练。现实世界中存在着许多偶然事件,由于人工智能系统没有“见过”这些偶然事件,因此面对这些“偶然”时,就很难合理地应对。著名的“黑天鹅”故事也能够说明人工智能的这一弊端:通过输入大量的白天鹅图片,人工智能系统经过训练可以获得识别白天鹅的能力,而且准确率很高,但是当它遇到黑天鹅时就会作出错误的判断。

人类创造机器的根本目的是让机器服务于人类征服世界和改造世界的生产活动,让人类过上更美好的生活。如果说人工智能发展的终极结果可能就是影视作品中经常展现的强人工智能,即机器具有知识和自我意识、能够摆脱人类的干预独立思考问题和解决问题,并具有和人类一样的情感和道德,那么现在的人工智能还仅仅停留在弱人工智能阶段。人类的思维特征是“小数据、大任务”,善于举一反三,基于以往的知识和经验,对未知的事件作出判断。人工智能的发展,需要进入“小数据、大任务”的范式,如同人的各种感知和行为,时时刻刻都是被任务驱动的,是“用任务塑造智能”[11]。真正的学习是一个交互的过程,并且建立在认知构架之上。当前最流行的大数据拟合模型是被动的统计学习,只属于广义的学习框架中一个非常小的部分。智能科学要研究的是一个物理与生物混合的复杂系统,它既包含智能物种进化而来的个体价值取向(驱动任务),又包含自然尺度下物理世界普适的因果链条。“人工智能”的六大领域,即计算机视觉、自然语言理解与交流、语音识别与生成、机器人学、博弈与伦理、机器学习独立发展至今,出现了平台的交互与融合,概率建模和随机计算成为共同的运作模式。把这些领域和问题统一起来研究,形成一个共同的构架,进入“小数据、大任务”范式,这成为人工智能新的目标。