Ⅱ 技术篇
Technology Articles
B.2 人工智能芯片积极推进更多应用场景落地
张瑶 李恒欣 张若丹[1]
摘 要:2020年,在继续提升基于传统人工智能(AI)芯片性能的基础上,基于神经拟态、模拟内存计算、光电技术的新型人工智能芯片取得多项成果,能效比不断提升。英伟达等传统芯片巨头仍占据着人工智能芯片市场的霸主地位,专用人工智能芯片持续寻求在更多应用场景的落地。独角兽企业通过上市寻求更多融资机会,初创企业仍获资本高度青睐,推进规模化落地。人工智能芯片产业发展仍处于初级阶段,随着技术和市场空间的发展,其未来前景巨大。在下一步发展中,仍需重点突破内存墙和高功耗等技术瓶颈,并解决应用落地和增加营收等困境,在推进数据中心、智能语音/视觉、自动驾驶领域加速落地的同时,寻求更多细分应用场景。
关键词:人工智能芯片;神经拟态计算;寒武纪;英伟达
Abstract: In 2020, on the basis of improving the performance of traditional AI chips, new AI chips based on neuromorphic computing, analog memory computing and optoelectronic technologies have made many achievements in improving the energy efficiency ratio, improving the energy efficiency ratio. Nvidia and other traditional chip giants still occupy the dominant position in the AI chips market, while the AI chips for special purpose are still seeking for the application in more scenarios. Unicorns expect to become listed to meet more funding opportunities, whereas the Start-ups are still highly favoured by capitals and aim to put business into practice in large scale. Although the development of AI chip industry is still at primary stage. The technology development and huge market demands indicate a promising future of the industry. The next step in development still needs to focus on breaking through technical bottlenecks such as memory walls and high power consumption, as well as solving dilemmas such as application landing and increasing revenue, seeking more segmented vertical scenarios while promoting accelerated landing in data centers, intelligent voice and vision, and autonomous driving.
Keywords: AI Chips; Neuromorphic Computing; Cambricon; Nvidia
一、多技术发展路径推动人工智能芯片不断突破性能上限
人工智能芯片是指针对人工智能算法做了特殊加速设计的芯片,使芯片能够高效处理大量文本、视频、图片、语音等非结构化数据,按功能可划分为训练芯片和推理芯片;按技术架构划分为冯·诺依曼计算架构的传统计算架构芯片和新架构芯片,前者包括图像处理单元(GPU)、中央处理器(CPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)等;按应用场景划分为云端(服务器端)和终端(移动端)。人工智能芯片是支撑人工智能技术和产业发展的关键基础设施,具有重要的战略地位。
(一)神经拟态芯片系统已可媲美小型哺乳动物大脑
神经拟态计算架构采用存算一体的结构,可模拟人类大脑的计算方式,不需要预先积累所有数据样本,几乎可以实时地自动从数据中学习、计算和产生答案,并将数据传输距离、功耗和时间减至最小,消除了大规模部署人工智能所面临的能耗障碍。神经拟态研究于2011年由美国英特尔公司提出,并持续推进架构、算法、软件和系统的研究。2017年,英特尔推出了首款神经拟态芯片Loihi,采用14nm工艺,包含20亿个晶体管、13万个神经元和1.28亿个突触,芯片速度和能效分别比传统处理器高1000倍和10000倍,且能量消耗极低。
2020年3月,英特尔采用数据中心机架式结构、24个Nahuku主板、每个主板32颗Loihi芯片组成了神经拟态计算系统Pohoiki Springs,神经元总数达到1亿个神经元,可媲美小型哺乳动物的大脑容量,功耗小于500W。对于神经拟态芯片的后续发展,英特尔希望能快速高效学习并适应不断演变的应用,具备和冯·诺依曼架构相似的通用性。
(二)基于模拟内存计算的人工智能芯片可行性获得证实
2020年7月,比利时微电子中心(IMEC)实现基于模拟内存计算(AiMC)架构的模拟推理加速器(AnIA),证实了AiMC架构的可行性。AiMC架构通过使用新的内存技术,可在模拟域的内存计算硬件上执行深度神经网络计算,能效比数字加速器提高了10~100倍,显著降低了终端人工智能系统的功耗,促进了人工智能技术在嵌入式硬件中的使用。
AnIA芯片采用格芯(GF)公司位于德国德累斯顿的22nm全耗尽绝缘体上硅(FD-SOI)低功耗工艺,面积为4mm2,具有1024个输入信号和512个输出信号,性能可与同代GPU相媲美,精度达到1%,每瓦能效仅为2900TOPS(每秒可进行一万亿次操作),预计于2022年上市。
(三)具备超高能效比的低位数四核人工智能芯片问世
随着人工智能模型复杂程度的增加,人工智能芯片功耗急剧增加。为了能在保证训练和推理计算性能的同时降低功耗和面积,2020年3月美国IBM公司研制出了被称为“混合FP8格式”的超低精度技术,并推出首款采用该技术的四核人工智能芯片。该芯片采用7纳米工艺,可在保持相同能耗的前提下提高性能,在图像分类、语音和对象检测等深度学习应用中保持模型精度。由于配备了集成的电源管理功能,可通过在高功耗的计算阶段降速来实现自身性能最大化。实验表明,“混合FP8格式”训练利用率超过80%,推理利用率达到60%,远高于典型的GPU低于30%的利用率。
研究人员下一步将扩大芯片规模并进行商业部署,以支持复杂的人工智能应用,包括从语音到文本的人工智能服务和金融交易欺诈检测等大规模云深度训练模型,以及自动驾驶车辆、安全摄像头和移动电话等需要低功耗应用的终端应用。
(四)光子人工智能芯片取得多项突破
随着摩尔定律滞缓,硅光子技术有望成为超越摩尔定律的研究方向之一。在人工智能芯片的设计实现上,光子计算的实现路径也获关注。
2020年6月,法国LightOn公司发表论文,指出其光学神经网络训练芯片在运行基于MNIST手写数字数据集训练的模型时,学习率为0.01,测试准确率达95.8%;同一算法在GPU上的学习率为0.001,准确率达97.6%,且该光学芯片的能效比GPU高一个数量级。
2020年8月,美国Lightmatter公司展示了利用硅光电学和微机电系统(MEMS)技术制成的人工智能推理芯片Mars,Mars能以光速执行神经网络计算,相较传统电子芯片计算速度提升数个量级,在完成BERT、Resnet-50推理等工作时,能效和吞吐量分别是英伟达A100的20倍和5倍。该款芯片计划在2021年秋季上市,并配备必要的软件工具链。
2020年12月,中国光子算数公司研发出可编程光子阵列芯片(FPPGA)及面向服务器的光电混合人工智能加速计算卡,能完成包括机器学习推理、时间序列分析在内的一系列定制化加速任务。该计算卡已交由服务器厂商客户进行测试,在运行功耗小于70W的情况能实现三四十路1080P视频同步处理,混合精度下峰值算力接近20TOPS。
二、人工智能芯片行业呈现高速发展态势
传统芯片巨头仍占据着人工智能芯片市场的霸主地位,为特定应用而设计的专用人工智能芯片持续寻求在更多应用场景落地,独角兽企业开始迈向上市,初创企业也在加速规模化落地,在智能语音/图像等领域生态对抗加剧。
(一)市场持续放大,终端人工智能芯片发展更迅速
随着人工智能技术日趋成熟,数字化基础设施不断完善,人工智能商业化应用加速落地,推动了人工智能芯片市场高速增长。艾媒咨询2021年1月的研究数据表明,预计2025年全球人工智能芯片市场规模将从2019年的110亿美元增长到726亿美元;在政策、市场、技术等合力作用下,我国人工智能芯片行业也将快速发展,2023年市场规模将突破千亿元。
GPU在云端人工智能芯片中应用范围最广、最成熟,是数据中心算力的主力军。根据美国弗若斯特沙利文(Frost&Sullivan)公司2020年11月的数据,2020年GPU芯片在人工智能芯片中占比达35.95%,占据最主要的市场份额,在未来五年仍将主导人工智能芯片市场,并以提升效率和扩大应用场景为发展目标。
随着对隐私、网络安全和低延迟需求的不断增加,以及低成本和超低功耗人工智能芯片技术的发展,终端人工智能芯片市场规模将持续上涨。美国ABI公司2020年8月的研究数据表明,终端人工智能芯片市场规模有望在2025年达到122亿美元,并首次超过云端人工智能芯片市场,云端人工智能芯片市场预计在2025年将达到119亿美元。
(二)国内投融资热度不减,人工智能芯片企业谋求更多融资渠道
2020年,人工智能行业整体融资趋缓,但人工智能芯片领域有多家公司获得多轮投资,并刷新单笔融资纪录。例如,奕斯伟于2020年6月完成超过20亿元B轮融资;壁仞科技在2020年共获四笔融资,其中2020年6月完成的11亿元A轮融资刷新了国内高端芯片设计业A轮融资规模的纪录。2020年国内主要人工智能芯片企业融资情况如表2-1所示。
表2-1 2020年国内主要人工智能芯片企业融资情况
续表
续表
数据来源:企名片。
寒武纪成为A股市场第一家人工智能芯片企业。2020年7月,寒武纪成功登陆科创板,成为A股第一家人工智能芯片设计公司。募集的资金主要用于新一代云端训练芯片及系统项目、新一代云端推理芯片及系统项目、新一代终端人工智能芯片及系统项目和补充流动资金。
(三)四大应用领域市场高度竞争,龙头企业与初创企业积极突围
受益于深度学习和神经网络等技术上的突破,以及市场对人工智能计算需求的与日俱增,谷歌、苹果、阿里巴巴和华为等国内外科技巨头,以及大量初创企业科技巨头均加大人工智能芯片发展力度,覆盖云端训练/推理、智能视觉/语音推理、自动驾驶、智能手机等领域。
1. 四大领域应用持续深化和丰富
云端训练和推理领域市场日趋热闹。云端人工智能芯片领域,英伟达占据绝对霸主地位,但随着英特尔在智能移动CPU和神经拟态芯片领域的发展,以及美国Blaize和中国寒武纪、比特大陆、燧原科技等都推出了云端人工智能芯片,云端人工智能芯片市场日趋热闹。英特尔从第十代Ice Lake酷睿处理器开始,将人工智能加速能力融入移动CPU中。第三代至强可扩展处理器的人工智能训练能力将比上一代提升60%,10nm移动处理器Tiger Lake大幅提高了其人工智能性能和图形性能。
自动驾驶领域持续推进。高通推出全新Snapdragon Ride平台,由安全系统级芯片、安全加速器、自动驾驶软件栈构成,搭载多个骁龙汽车系统级芯片(SoC),可为L1/L2级高级辅助驾驶系统(ADAS)提供30TOPS算力,也可为L4/L5级自动驾驶打造出算力超过700TOPS、功耗130W的设备。地平线推出了车规级人工智能芯片征程二代和新一代自动驾驶平台Matrix 2,等效算力达16TOPS,功耗仅为上一代的2/3,可低延迟实现最多23类语义分割及五大类目标检测,并已成功实现大陆、SK电讯等一系列智能驾驶成果落地。
智能视觉/语音推理领域产品丰富。瑞芯微推出多款搭载其语音芯片的人工智能语音产品,包括百度小度音箱、阿里巴巴智能家居语音中枢、网易有道翻译笔等,以及多款智能视觉落地方案和终端产品。耐能推出首款人工智能芯片KL520及搭载该芯片的多个人工智能产品。嘉楠推出人工智能SoC勘智K210,支持视听觉多模态识别。
智能手机领域工艺达5nm,竞争激烈。苹果发布采用5nm工艺的A14 Bionic处理器,晶体管数量达到了118亿颗,人工智能算力提升到了11.8万亿次,机器学习速度提升了70%。高通发布采用5nm工艺的骁龙888芯片,采用第六代人工智能引擎,实现了Scalar、Tensor、Vector三个人工智能加速器之间的内存共享,拥有每秒26万亿次的算力,性能提升了73%,每瓦特性能是前代产品的3倍。华为发布5nm工艺5G SoC麒麟9000芯片,采用升级的达芬奇架构2.0和华为SmartCache2.0,INT8性能相较竞品提升了60%,能效提升了150%,还可实现超低功耗感知等需要芯片时刻待命的人工智能操作,且全天候待机耗电只有3mA。
2. 国外人工智能芯片产品性能显著提升
美国英伟达公司发布超高性能7纳米Tesla A100。2020年5月,英伟达发布基于全新的安培(Ampere)架构的Tesla A100,采用7nm和3D堆叠工艺,面积为826mm2,包含540亿个晶体管,最大功率达到400W,内置英伟达第三代张量核芯,扩展功能支持包括面向人工智能的新数学格式TF32,可将单精度浮点计算峰值提升至上一代的20倍;支持多实例GPU技术,满足不同任务计算所需。
ARM公司推出超低功耗芯片和神经处理单元。2020年2月,ARM公司发布了Cortex-M55架构芯片和Ethos-U55架构的神经处理单元。Cortex-M55面向嵌入式市场,是首款基于ARM公司Helium技术的处理器核心架构方案,拥有执行SIMD指令的能力,与上一代Cortex-M处理器相比,Cortex-M55数字信号和机器学习处理能力分别提升了5倍和15倍。Ethos-U55针对低功耗领域设计,需和Cortex-M系列微处理器配套使用,处理单元的规模可扩展,最小只有32个MAC引擎,最大可以配置到256个MAC引擎。
美国英特尔公司推出首款人工智能优化的FPGA。2020年6月,英特尔发布Stratix 10 NX,是首款专为人工智能优化的FPGA,可带来高带宽、低延迟的人工智能加速。核心芯片采用14nm工艺制造,拥有高性能张量区块,支持INT4、INT8、FP16、FP32等格式,其中INT8整数计算性能最大可以达到现有Stratix 10 MX方案的15倍,且可针对不同的人工智能工作负载进行硬件编程,更加灵活高效;采用嵌入式多芯片互连桥接(EMBI)技术对核心芯片、HBM存储、I/O扩展进行了封装集成。
美国高通公司投产Cloud AI 100推理芯片平台。2020年9月,高通表示其2019年发布的Cloud AI 100推理芯片平台已投产并开始出样,预计2021上半年实现商业发货,是高通首次涉足数据中心的人工智能推理加速器业务。该芯片包含16组人工智能内核,采用7nm工艺,具备400 TOPS的INT8推理吞吐量,支持INT8/INT16和FP16/FP32精度,能够带来足够的灵活性,为Cloud AI 100平台配备了144MB的片上SRAM高速缓存,可达成尽可能高的存储流量。
美国超级计算机中心采购两套全球最大人工智能芯片。2020年6月,美国匹兹堡超级计算机中心(PSC)耗资500万美元购入了两套CS-1系统。CS-1为美国Cerebras公司与能源部基于全球世界上最大半导体人工智能芯片WSE合作开发的全球最快深度学习计算系统。WSE于2019年8月发布,基于16nm工艺,核心面积超过46225mm2,集成1.2万亿个晶体管,40万个人工智能核心,功耗为15kW。CS-1性能相当于一个拥有1000颗NVIDIA V100 GPU的集群,后者功耗为500kW;性能相当于Google TPU v3系统的3倍,但功耗和体积分别只有Google TPU v3的1/5和1/30。第一台CS-1已向美国能源部阿贡国家实验室交付完毕,投入处理大规模的人工智能计算问题。PSC将联合Cerebras、HPE,用CS-1打造一台新的人工智能超级计算机Neocortex,用于医疗健康、能源、交通等领域的人工智能模型训练。
3. 国内人工智能芯片产品全面发力主要应用领域
寒武纪推出7nm云端训练芯片。2021年1月,寒武纪推出首颗采用7nm工艺的云端训练芯片思元290和基于思元290的玄思1000加速器。思元290集成460亿个晶体管,具备64个机器学习单元(MLU)核;对MLUv02架构进行了多项扩展,包括MLU-Link™多芯互联技术、高带宽HBM2内存、高速片上总线NOC及新一代PCIe 4.0接口,内存带宽达到1.23Tbps,总带宽达到600Gbps,较上一代产品思元270的峰值算力、缓存带宽、片间通信带宽分别提高了4倍、12倍和19倍,全面支持人工智能训练、推理或混合型人工智能计算加速任务。
清微智能基于可重构架构的视觉芯片月出货量达十万颗。清微智能继2019年语音人工智能芯片TX210出货量达数百万颗后,于2020年7月底开始量产首款同时支持视觉和语音处理的多模态智能计算芯片TX510,迄今为止出货量已达数十万颗。两款芯片基于清华大学无须指令驱动的动态可重构计算架构(CGRA),兼具通用芯片的灵活与专用集成电路的高效。TX510基于阿里巴巴平头哥无剑平台设计,内置平头哥玄铁系列804/805异构处理器和清微智能可重构计算引擎,峰值算力达1.2T(Int8)/9.6T(Binary),典型工作功耗为350mW,能效比达5.6TOPS/W,休眠功耗仅为0.01mW,具有成本低、能效比高、算法免费、易上手等优势,已用于智能门锁、智能门禁、扫地机器人等场景。
燧原科技提供云端训练+云端推理完整解决方案。2020年10月,燧原科技宣布其于2019年9月推出的首款云端训练产品“云燧T10”及软件全栈“驭算”已实现落地商用。云燧T10是基于邃思芯片打造的面向云端数据中心的人工智能训练加速产品,具有高性能、通用性强、生态开放等优势。2020年12月,推出首款云端推理计算卡“云燧i10”及推理引擎“鉴算TopsInference”。云燧i10是单槽位标准卡,支持PCIe 4.0,FP32算力可达17.6TFLOPS,BF16/FP16算力可达70.4TFLOPS,最大功耗仅为150W,已独立适配8款人工智能服务器。
鲲云CAISA完成浪潮人工智能服务器认证测试。2021年1月,鲲云科技的全球首款数据流人工智能芯片鲲云CAISA完成在浪潮人工智能服务器NF5280M5上的认证测试。鲲云CAISA专为人工智能推理场景而设计,可提供10.9TOPS的算力,最高可实现95.4%的芯片利用率,延迟低至3ms,支持目标检测、语义分割、视频结构化等算法的快速部署,已应用在智能制造、智慧城市、智慧交通等领域。
三、人工智能芯片发展面临算力不足、落地困难等问题
在技术方面,随着人工智能芯片处理数据量的快速增加,采用传统冯·诺依曼架构的人工智能芯片的算力提升仍受制于内存墙和高功耗,以及人工智能算法和人工智能芯片发展速度不匹配。在产业方面,寒武纪因成为“人工智能芯片第一股”而备受瞩目,其招股书中可以充分反映出人工智能芯片企业面临的发展困境。
(一)技术上急需解决内存墙和高功耗等问题
仍受制于冯·诺依曼瓶颈。在传统冯·诺伊曼体系结构中,由于运算部件和存储部件存在速度差异,当运算能力达到一定程度时,访问存储器的速度无法跟上运算部件处理数据的速度,无法支持高效数据访问,形成内存墙问题。算力不足将成为限制人工智能芯片应用的重要因素。
功耗大制约大规模部署。目前主流人工智能芯片的核心主要是利用乘加计算(MAC)加速阵列来实现对卷积神经网络(CNN)中最主要的卷积运算的加速。内存大量访问和MAC阵列的大量运算,造成人工智能芯片整体功耗的增加,限制了人工智能在终端设备中的应用和大批量部署。
软硬件发展速度不匹配。人工智能对算力要求高,提升算力最好的方法是做硬件加速。人工智能算法发展迅速,而人工智能芯片开发周期则需1~3年。新的算法可能在已经固化的硬件加速器上无法得到很好的支持,难以平衡性能和灵活度。
(二)人工智能芯片企业仍面临亏损和落地难
人工智能芯片企业普遍面临亏损严重、盈利能力不足、融资难度加大等问题,中尾部企业面临的生存环境更恶劣。
盈利能力不足和亏损严重。人工智能芯片企业的运营资金普遍依赖外部融资。尽管依托资本的力量得到了快速发展,但在整体规模、资金实力、研发储备等方面仍与英伟达、英特尔等大型芯片厂商相比存在较大差距,实现自我造血难度大,变现困难,如果无法获得足够资金的持续,将受到重大不利影响。以人工智能芯片第一股寒武纪为例,由于投入了远超营收的巨额研发资金,如2017年的研发费用是2986万元,是784万元营收的4倍,2019年的研发费用是5.4亿元,仍超过4.4亿元的营收,导致2017年、2018年和2019年亏损金额分别为3.8亿元、4.1亿元和11.8亿元,且无法保证未来几年内实现盈利。
行业整体仍面临资金短缺的困境。高投入是芯片研发的特质,尽管明星人工智能企业获得了多轮投资,且部分投资刷新了纪录,但人工智能芯片厂商普遍面临缺钱的现状。知名、头部人工智能芯片企业经过数年的发展,已经发展到一定体量,融资和被收购难度均较大,因此部分人工智能芯片企业尝试从公开市场上募集资金,如寒武纪、亿图、云飞励天等,更多中小人工智能芯片企业可能面临“无钱可烧”的困难处境。
四、技术创新推动人工智能芯片在更多应用场景加速落地
人工智能芯片产业发展仍处于初级阶段,随着技术和市场空间的发展,其未来前景巨大。在技术方面,人工智能芯片将向具备更高灵活性、更低能耗的方向发展。在产业方面,将在数据中心、智能语音/视觉、自动驾驶领域加速落地,并寻求更多细分垂直应用场景。
(一)持续突破性能、功耗和通用性瓶颈将指引技术发展
为突破传统架构的性能和能效瓶颈,人工智能芯片需要不断探索颠覆性的技术,体现在以下几个方面:一是更高效的大卷积解构/复用,在超大型神经网络中,合理地分解、映射这些超大卷积到有效的硬件上,可以减少总线上的数据通信;二是更少的神经网络参数计算位宽,从32位浮点逐步减少到16位浮点/定点、8位定点,甚至是4位定点,可以实现更高的计算效率;三是更多样的分布式存储器定制设计,研究新型存储结构,减少存储器的访问延时;四是更稀疏的大规模向量实现,以高效地减少神经网络中的无用能效;五是计算和存储一体化,通过使用新型非易失性存储器件,在存储阵列里面加上神经网络计算功能,实现了计算存储一体化的神经网络处理,显著降低了能耗。
为了满足人工智能算法的不断演进,人工智能芯片还将在保持芯片高能效比的同时不断提高通用性,如发展完全可编程、可重构架构(CGRA)芯片,以及采用通用加专用芯片的发展模式,同时打造易用、完整的异构计算平台,推进软硬件协同。
(二)深入理解需求以积极推进更多应用场景落地
新型基础设施的普及将催生更多、更丰富的应用场景,给人工智能芯片在云端和终端的落地带来新动能,为人工智能芯片厂商释放新增长点。人工智能芯片企业必须要更深入、精准地理解场景需求,完善生态建设,通过软硬件一体化的全栈能力和整合场景的解决方案,推进技术落地和提升竞争壁垒。
人工智能芯片在数据中心将发挥更大作用。未来,云端推理市场将超过训练的市场规模,FPGA尤其是ASIC芯片在云端推理领域未来将有大规模增长。人工智能芯片要落地数据中心,必须具备系统集群、板卡、高性能/高算力芯片、全栈软件四大要素,并在完备性、生产率、成本、功耗和性能五个维度具备足够的优势,从而实现市场化、产业化和规模化。
人工智能芯片在自动驾驶领域的应用将持续推进。自动驾驶技术是人工智能芯片厂商最看重的领域之一,因为安全等原因仍未实际落地,要实现在自动驾驶领域的突围,需要大算力芯片及车规级高性能计算平台作支撑,还需自主研发核心IP、车规安全认证和成熟的工具链及围绕车规级高性能计算平台构建完整生态系统。
人工智能芯片在语音/视觉领域的竞争将日趋激烈。相比自动驾驶,人工智能芯片在智能语音/视觉领域的技术发展更成熟,已有智能音箱等出货量非常大的产品。未来随着智能家居市场规模快速增加,语音/视觉人工智能芯片厂商也将面临更激烈的竞争,需要从算法和架构创新两方面寻求突围。
参考资料
1. https://zhidx.com/p/185835.html.
2. https://www.jianshu.com/p/4b4c403820b6.
3. https://ai.51cto.com/art/202012/633958.htm.
4. https://www.sdnlab.com/24062.html.
5. https://www.rivai.ai/news_show.php?id=27.
6. http://finance.eastmoney.com/a/202103031828363985.html.
7. http://www.cnsoftnews.com/news/202103/83596.html.
8. http://www.nbd.com.cn/articles/2021-03-01/1641340.html.
9. https://zhidx.com/p/185835.html.
10. http://article.cechina.cn/21/0303/09/20210303092029.htm.
[1]张瑶,国家工业信息安全发展研究中心工程师,硕士,主要跟踪国内外人工智能、智能语音、计算机视觉等多个领域企业、战略规划和产业的发展动向,在人工智能产业发展、政策规划及安全、伦理、就业相关领域具有丰富的研究经验;李恒欣,国家工业信息安全发展研究中心工程师,硕士,主要从事人工智能领域资讯动态跟踪研究、人工智能大赛论坛活动策划分析研究;张若丹,河北农业大学,硕士,主要从事人工智能领域资讯动态跟踪研究,人工智能领域大赛、培训活动策划分析研究。