量子人工智能
上QQ阅读APP看书,第一时间看更新

第1章 量子计算和人工智能

追溯当今文明的起源,技术进步中总是伴随着计算工具的革新。无论是出现在中西方早期文明中的易学术数和神秘学占星术,还是近代欧洲数学家发明的乘法计算机机械装置,都能看到借用可观测、可控的自然系统的规律演化来推演那个时代生活里的大小事情。小到计算时间,大到部落战争,或是生产制造,可触及的角落不缺算术和计算工具的影子。

21世纪以来,科技的发展大步迈入信息时代新技术革命的巅峰,人工智能是涌现出的众多新兴科技中最让人兴奋的,引人无限遐思。过去十年,卷积神经网络在图像分类上的成功应用使深度学习进入人们的视野,生成对抗网络的提出又再次扩展了大家对人工智能处理边界问题的认识,深度强化学习模型AlphaGo系列在同专业棋手博弈中的胜利更是使人工智能成为目前社会最流行的科技词汇之一[1]。在那之后,AI技术席卷各个交叉领域,不但被用于自动驾驶、设计新药物新材料、交通规划、金融交易等领域,GPT-3和AlphaFold更是在自然语言处理和类似数据场景下取得了成功并已经颠覆了特定技术行业。这其中也有新提出的Transformer模型和注意力机制发挥作用,而这两者的潜在应用将不只局限在传统自然语言处理任务。

随着经济社会生活信息化程度的不断提高,海量用户数据及多样性的需求都在以超越指数的方式在迭代,这些是人工智能的温床,却导致了支撑这一大厦的底层基石——经典电子比特受到挑战。在过去这些年,集成电路芯片提供的算力一直随着半导体制造工艺的提升以摩尔定律不断迭代。0-1电子比特需要通过电子能量的控制确定性区分半导体器件的不同状态,随着三星和台积电等先进半导体企业的制造工艺进入1nm及以下,制造工艺和芯片运行的能耗提升,更为重要的是,原子半径通常在埃(1/10nm)的尺度下,当制造工艺接近原子半径极限时,量子效应将发挥关键作用,挑战经典物理运行规律,0-1不再是确定性保持的经典数字信号,反而会转换为纠缠在一起的量子态的线性叠加。

量子物理诞生于20世纪,是举世瞩目众多科学家集体智慧的结晶。大自然的微观物理机制被进一步揭示,经过多次科学论证,量子理论成为当代物理学的基础之一。“二战”后大量优秀科学家在美国汇集,其中犹太裔天才物理学家费曼在一次报告中最早提出,用量子物理演化过程模拟目标物理系统的思想,这被广泛认为是量子计算的原型。量子比特作为高维布洛赫球面上的态向量,在希尔伯特空间下产生了更强的针对数据信息的表示能力,通过量子态在包含可控参数下的演化实行量子程序的高度并行。在某些问题上,遵循量子规律对信息进行计算处理,即使用量子计算机,将拥有远超经典计算机的表现。量子计算真正广为人知是在Shor提出质因数分解算法之后,Shor质因数分解算法相比经典算法的指数加速及其在密码学上广泛而重大的现实意义,使该算法的提出成为量子计算的里程碑[1]

量子计算机的基础理论早已成熟,并基于计算机体系架构发展了一系列的编程和量子软件编译工具。近年来以中国科学技术大学团队“九章”系列量子计算机、IBM和谷歌公司的超导量子计算机为代表,使量子计算逐渐进入大众视野。理性看待量子计算展现的量子计算优势,并比较不同物理实现目前的局限性,能够更好地深挖有潜力的技术路线。