三、美国
(一)IT产业与法律政策
1.概述
与欧洲一样,美国基于重视创新的产业政策来促进机器人和AI的研发。例如,自2009年以来分三次公开的“美国创新战略”将先进车辆(Advanced Vehicles)和信息处理新领域(New Frontiers in Computing)列为优先领域。
如果从模式上强调欧美的差异,美国信息通信领域成为对GDP增长率做出实质贡献的产业结构,虽然由于政权交替等有若干不同,但具有政策上长期受到重视的特征。另外,也可以指出,反映信息通信领域的蓬勃发展的,不仅仅是研究者和大企业,还包括初创者和投资家,他们之间进行着更加紧密的合作。在欧洲,机器人是公共机构讨论的主要核心;而在美国,对AI的讨论基本上在私营领域正在取得进展。
因此,以下将概述美国学术研究机构和产业界的动向。
2.学术研究机构、产业界的建议
(1)AAAI
2008年美国人工智能学会(AAAI,Association for the Advancement of Artificial Intelligence)成立“关于AI长期未来的AAAI主席团”。27该专家会议围绕人工智能发展对社会的长期影响,从社会、经济、法律、道德等角度进行讨论,发表了促进负责任地使用人工智能的声明。
此外,该会议在美国加利福尼亚州阿西洛马举行,这可能是考虑到1975年在同一地点的“阿西洛马会议”,科学家研究了基因重组技术相关实验的风险,是制定生物学、物理学“封存”等指导方针的开端。28
(2)斯坦福AI 100
2014年12月,“斯坦福AI 100(人工智能一百年研究)”29以承继上述会议的形式,由AAAI主席埃里克·霍洛维茨(Eric Horowitz)领导成立,研究AI在一百多年来对法律、经济、社会等多学科的长期影响。2016年9月,发布一份题为“2030年人工智能与生活”的报告,涵盖过去15年的八个领域,包括运输、服务机器人、医疗保健、教育、社区、安全与保障、雇用与职场、娱乐,以及对未来15年进行了预测。
在与开发原则、使用指南的关系上,讨论考虑了安全性、自主性原则的必要性。另外,可以通过提出指导方针等来缓和AI引起的社会不安。
(3)IEEE
IEEE(The Institute of Electrical and Electronics Engineers)30是与电气、电子工学相关的学会,积极进行诸如制定规格等标准化活动,“全球AI、自主系统的伦理考虑倡议”这一计划于2016年4月开始。31报告书“符合伦理的设计:AI、自主系统和人类福利的优先愿景(Ethically Aligned Design:A Vision For Prioritizing Wellbeing With Artificial Intelligence And Autonomous Systems)”的初版于2016年12月公布。32今后将公开征集意见,并通过在世界各地的研讨会等对内容进行修订。33
该报告书列举了人类的利益、责任、透明度、教育和启发作为一般原则。此外,各论还提到个人数据和个人访问控制、自主型武器系统的重新评估、经济、人道主义问题等。
此外,各种标准化活动也同时进行,诸如“IEEE P7001(自主系统的透明度)”、“IEEE P7002(数据、隐私处理)”、“IEEE P7005(透明雇主的数据管理相关标准)等正在讨论中。34
(4)FLI
以上是学术界的主要动向,但如上所述,产业界与学术界之间的紧密合作是美国的特征。35例如,2014年3月,为了人类能够灵活运用AI等新技术而设立研究支援团体FLI(未来生命研究所,Future of Life Institute),在那里除了MIT和哈佛大学的研究人员之外,让·塔林(Jean Tallinn)36等企业家和工程师也参与其中。
2015年1月,企业家埃隆·马斯克(Elon Musk)37捐赠了1 000万美元作为一个AI研究项目的启动资金,发布“面向坚固而有益的AI研究优先事项公开信”,并开始公开征集受资助人。38法律和伦理研究作为短期内优先考虑的研究主题,讨论内容还包括对自动驾驶汽车的责任、自主型武器、隐私等,以及科学家在AI的开发和使用中应扮演的角色和职业伦理。
2017年1月,在阿西洛马召开了为期5天的国际会议,39参照先前各种的议论、原理和方针,讨论了关于AI研究、伦理、价值和将来课题的研究方向。该成果作为“AI的阿西洛马23原则”40公布。AI机器人研发人员的支持签名达到1 200多个,在其他领域也以物理学家斯蒂芬·霍金(Stephen Hawking)为首,有2 300多人对此表示赞同。
该原则被整理成3个领域,包括研究课题、伦理和价值、长期课题。除了安全性、损害发生时确认所涉及的透明性、司法判断过程中的透明性等之外,例如在长期课题中,认识到在递归自我改善(Recursive Self-Improvement)的AI开发中需要严格的安全管理对策。
(5)Open AI
2015年12月,埃隆·马斯克,企业家、投资人彼得·泰尔(Peter Thiel),41投资人山姆·奥特曼(Sam Altman)42等人捐赠10亿美元成立了一家非营利性研究机构“Open AI”。顾名思义,通过对开放式AI的研究,旨在构建安全的AI并尽可能广泛地传播AI带来的好处。43
2016年4月,强化学习算法验证平台“Open AI Gym”发布,2016年12月,AI测量、学习平台“Universe”发布。
(6)Partnership on AI
2016年9月,亚马逊、谷歌、Facebook、IBM、微软5家公司宣布成立“AI合作伙伴关系(Partnership on AI)”。目的是通过研究形成AI技术的最佳实践,成为讨论AI及其具有社会影响力的平台。除了AAAI和Open AI参与之外,2017年1月苹果公司也加入其中,同年5月除Intel、索尼、salesforce之外,电子前沿财团和联合国儿童基金等非营利组织也参与了进来。
如上所述,知名企业参与其中,这些平时相互激烈竞争的企业之间展开合作可能会令人觉得不可思议。但是,在安全性等其他信息通信领域也随处可见“一手相握,一手殴打”的情况。这是因为区分了商业竞争的领域。也就是说,讨论和应对AI及其带来的社会影响被认为是共有领域。AI合作伙伴关系在成立时公布了8项“信条”44,致力于向利害关系者说明责任、利益最大化和应对AI技术的潜在课题等。
3.把制定权交给民营部门比较好吗?
到目前为止,我们已经回顾了美国民营部门的举措。正如后面将要描述的那样,美国政府也在进行对原则和准则的讨论,但产业界和学术界业已领先。美国与欧洲不同,在欧洲,像欧盟这样的公共机构是主力。45但是,两者的共同点在于,并非所有政策问题仅通过直接监管就能解决。特别是在信息通信领域等技术和市场结构变化激烈、专业性高的领域,在民间主导下进行规则制定的同时,根据需要讨论公共机构和政府的相关事宜。
关于机器人、AI的原则、方针的制定应该由谁来承担,根据状况和立场的不同所得到的最优解不同,因此意见不一。在欧洲,政府机关参与到制定自主规制的过程中。与此相对,美国可能将自主规制的制定委托给民营部门,但在执行阶段,对未达到规定目的或未发生预期作用等情况,由政府调整方向来确保实效性。
将规则制定的工作留给民营部门,并让其负责自我监管和指导方针,既有优点也有缺点。法律如何弥补其缺点并助推它前行,在法律和政策学方面,关于自我规制46和共同规制47的应有方式正在与理论家进行探讨。
(二)为AI的未来作准备
1.概述
虽然在美国以委托给民营部门的形式持续进行讨论,但笔者想谈谈政府的目标方向性。美国政府,是以对各部门的科学技术政策信息汇集、调整的地方——国家科学技术会议(National Science and Technology Council,NSTC)及科技政策局(Office of Science and Technology Policy,OSTP)为中心,其于2016年10月发布了关于AI社会影响、制度设计的报告书“为AI的未来作准备”。48同时,还制定了“AI研究开发国家战略计划”。49
在汇总该报告书时,NSTC和OSTP与大学、非营利组织等一起举办了4次研讨会,还进行了意见募集。其成果反映在23个建议中。
2.建议和研究开发战略
(1)23个建议
从犯罪预测工具中的正义、公正到航空交通控制系统的开发、实施的讨论,建议内容涉及很多,但23个建议中的第20个建议明确了政府、公共机构应发挥的作用。
例如,在建议1中,其对象是“民间及公共机构”,“通过给社会带来利益的方法,建议讨论能否负责任地活用AI和机械学习,以及该如何活用”?另外,建议7中指出“关于以安全、研究及其他目的增加数据共享方法,有必要与产业界、研究人员进行合作”,该对象被指定为“运输部”等,也有其他部门被指名的情况。
此外,对非政府机构的建议内容数量有限,内容也比较保守。简言之,例如:向产业界建议提供一般情况的信息(建议12);向大学等建议提供关于伦理、安全、隐私、安全的教育(建议18);向专家建议寻求安全的持续性合作(建议19)。这与欧洲议会考虑将设计者、用户作为责任人的开发原则和使用指南形成鲜明对比(有关产业界、政府和学术界全体应实现的规制形式和政府在其中的作用,请参照本书第五章)。
(2)AI研发国家战略计划
除上述建议之外,提出以下7个战略:①长期投资AI研究;②开发人类和AI的有效协作方法;③AI的伦理、法律、社会影响的理解与应对;④AI系统的安全及安全确保;⑤为AI学习和试验创建可共享的公共数据集和环境;⑥依据技术指标或基准对AI技术的测定和评价;⑦进一步了解国家AI研发人才的需求。通过采取这样的战略,目标是建立有效的研发投资框架。
3.安全保障政策与机器人、AI
在“为AI的未来作准备”部分,最后第23个建议,列举了“按照国际人道法制定关于自主型、半自主型武器的政府整体方针”。此外,作为政府内部的“活用事例”,介绍了国防高等研究计划局(Defense Advanced Research Project Agency,DARPA)使用AI进行新兵教育计划的措施。因此,笔者也希望能涉及安全保障、防卫政策和机器人、AI之间关系的内容(关于机器人武器和国际法,请参照本书第十二章)。
美国政府表示,于2014年11月制定“国防创新倡议(Defense Innovation Initiative)”,推进“第三次抵消战略(the third offset strategy)”。这是主要针对以中国和俄罗斯等国为中心,利用先进技术向上“抵消”追赶,来确保军事优势的构想。50在机器人和人工智能方面,将进行研发投资,以将其用于无人驾驶飞机(攻击机、潜水机),自主、半自主武器,决策支持系统等。实际上,美国海军构筑并导入了自律型防空系统。
同时,也积极进行着民生技术的支援和引进。DARPA自2004年之后,举办了自主机器人车辆的赛车竞赛、灾害救助用机器人竞技大会等,来自世界各地的大学和公司的100多个团队参加这项赛事来争夺200万美元的巨额奖金。此外,2015年建立了“国防创新实验单元(Defense Innovation Unit Experimental)”,作为通向民生部门的桥梁。
还有一种立场是要警惕这种趋势。在前面介绍的“阿西洛马23原则”中,第18条原则表明反对利用自主武器扩大军备的竞争。2016年9月,联合国区域间犯罪和司法研究所(Interregional Crime and Justice Research Institute,UNICRI)宣布将在荷兰海牙建立“人工智能和机器人中心(Centre for Artificial Intelligence and Robotics)”,其主要目标之一是监视自主型武器。