一、引言
(一)“机器人、AI和法律”,不可怕吗?
说到“机器人、AI和法律”,通常会引起人们的警惕。经常听到诸如:“因受到规制而失去自由,好麻烦!”“奇怪的政策可能会扼杀成长中的领域吧!”“真是令人恐惧的事情!”等话语。也有读者将本书拿到手上作为“敌情视察”,并投以怀疑的目光吧。
确实,法律具有限制人们行为和技术方式的方面。因此,它往往被视为机器人和AI创新的障碍。但是法律也支持创新自由。例如,我们之所以可以自如地使用作为机器学习目标的大量数据,除了有技术者的努力,他们通过执行预处理和参数调整来准备数据集,还因为有完善的合同概念和知识产权法的结构。另外,在实证实验中的机器人引起意外的财产损失事故,如果对其投保,也可以补偿对第三方造成的损害并防止开发资金的损失。而保险法和保险业务法对此提供了制度的保证。
法律可以被视为实现机器人和AI健全竞争的同时,被社会所接受的一种基础设施。
(二)法律政策的设计
如果说“法律也是社会基础设施的一种”,可能会认为法律和政策的框架是既定的。另外,经得起多年考验的制度确实是受到精炼的。但是,在此要强调的是“法律的可变性”。新技术的兴起和产品、服务的变化,伴随着时代的发展,人们所期望的基础设施的存在方式也有所不同。因此,法律也必然需要变化,其在制度上也保证了这种可变性。
如第一章所述,机器人和AI的发展给法律带来了新的挑战。将在第三章及以后的章节中详细分析和研究法律该如何应对,但是在此以法律可变性为前提,机器人和AI相关人员自己提出设计法律政策学的观点1是非常重要的。实际上,目前机器人、AI和法律之间正在建立共识,并且在考虑对法律进行一些修订。
(三)本章的构成
本章旨在通过介绍法律政策的趋势来传达制度的动态(以及其背后的理念、价值和利益等),表明决策过程的动态就是设计规则和制度,这将有助于“设计”围绕机器人和AI的社交环境。
其中,以目前国际上正在推进的机器人、AI的开发原则和利用方针为中心,概观法律政策动向。以下特别讨论欧洲和美国的动向。
考虑到与机器人、AI开发原则和指导方针相关的法律政策不能抑制创新,因此其中许多是非监管性且无约束力的。需要注意的是,也有不受政府直接规制的地方。
另外,想提请大家注意的是,由于许多建议和指南是在最近才发布的,因此并不详尽,并且存在信息迅速过时的风险。