法治具有目的性
上QQ阅读APP看书,第一时间看更新

人工智能的发展对民法的挑战

2016年3月9日,全球瞩目的围棋“人机大战”在韩国首尔上演,对战双方是人工智能机器人阿法狗(AlphaGo)与世界冠军、韩国职业九段选手李世石。经过几天的拼杀,比赛最终的结果是阿法狗获胜。对这场比赛,有各种评论,一些专业棋手认为,比赛本身是不公平的,因为李世石会受到体能、情绪波动等各方面因素的影响,而阿法狗作为人工智能机器人,并不会受到上述因素的影响,因此,似乎胜之不武。其实,胜负结果并不重要,关键是这场比赛引发了人们普遍的疑问,即智能机器人与人类相比,谁更胜一筹?这一事件也引发了人们对人工智能相关法律问题的思考。

人工智能的发展应当说只有几十年的时间。1956年夏,以麦卡赛、明斯基、罗切斯特和申农等为首的一批年轻科学家在聚会时,就机器模拟智能的相关问题展开讨论,并首次提出了“人工智能”这一术语。之后,人工智能作为一门新兴学科发展迅速,并与基因工程、纳米科学并称为21世纪的三大尖端技术,同时迎来一场新的技术革命。

人工智能的发展,首先提出了一个重大的法律问题,即智能机器人究竟属于物,还是属于人?人工智能研究的创始人之一的明斯基(Marvin Minsky)指出:人工智能是“让机器从事需要人的智能的工作的科学”。2016年,世界机器人大会在北京召开,一些机器人公司展示出了各种智能机器人,智能机器人能够识别人的面孔、表情、年龄、性别,并且能够表达与人类相似的情绪和面部表情。智能机器人的智力虽然还不能和人类相比,但已具备了独立处理相关信息的能力和智力。有的机器人甚至已经基本达到了人类智慧的水准。这些聪明的人工智能机器人,让人类感到恐惧。尽管大家都知道智能机器人是人制造的,并受人控制,但仍然有不少人怀疑,它是不是物,是不是机器?智能机器人是否会代替人类,超越人类?如果是这样的话,那么,就不应当把智能机器人当作单纯的物。

人工智能的发展涉及侵权责任的承担。现代机器人的发展日新月异,机器人既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。机器人致人损害的案例已经发生。例如,2015年7月,德国大众汽车制造厂一名21岁的工人在安装和调制机器人时,被机器人“出手”击中胸部,并被碾压在金属板下。无独有偶,2016年,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴相撞,后法院认定,Google公司在此次事故中负有责任。我国也出现了人工智能机器人伤人的事件,2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的机器人突然发生故障,在没有指令的前提下自行打砸展台玻璃,砸坏了部分展台,并导致一人受伤。[51]毫无疑问,机器人是人制造的,其程序也是制造者控制的,所以,在造成损害后,谁研制的机器人,就应当由谁负责,似乎在法律上没有争议,因为人工智能就是人的手臂的延长,在人工智能造成他人损害时,当然应当适用产品责任的相关规则。其实不然,机器人与人类一样,是用“脑子”来思考的,机器人的脑子就是程序。我们都知道一个产品可以追踪属于哪个厂家,但程序却是不一定的,有可能是由众多的人共同开发的,程序的开发可能无法追踪到某个具体的个人或组织。尤其是,智能机器人也会思考,如果有人故意挑逗,惹怒了它,它有可能会主动攻击人类,此时是否都要由研制者负责,就不好说了。

智能机器人的发展也涉及人格权的问题。一方面,由于智能机器人必须要模仿他人的声音、形体动作,才能够像人一样表达,并与人进行交流。但如果未经他人的许可而模仿他人的声音等人格特征,就有可能构成对他人人格权的侵害。例如,现在很多机器人的体内设置了一些系统,把一些人的声音、表情、肢体动作等植入机器人的程序系统中。这对权利人究竟会产生什么样的危害后果,现在还不好预料,但毫无疑问,它可能会模仿他人的声音、肢体动作,从而造成对这些人人格利益的侵害。随着声控技术的发展,个人的声音、容貌等,都可能受到侵害。尤其是一些智能机器人设计者大规模地收集个人信息,并将其植入程序之中,也会对个人隐私权构成重大威胁。

人工智能的发展也可能引发知识产权的争议。智能机器人要通过一定的程序进行“深度学习”(deep learning)、“深度思维”(deep mind),在这个过程中有可能收集、储存大量的他人已享有著作权的信息,这就有可能构成非法复制他人的作品,从而构成对他人著作权的侵害。如果人工智能机器人利用获取的他人享有著作权的知识和信息创作作品(例如,创作的歌曲中包含他人歌曲的音节、曲调),就有可能构成剽窃。人工智能实际上就是一种机器模仿人的智力活动的技术。在一些地方计算机帮助人进行原来只属于人类的工作,智能机器人可能把大量的信息复制并储存下来,而按照一些国家的规定,存储信息本身就构成对他人著作权的侵害。

随着人工智能的发展,其所引发的纠纷也将日益复杂。有观点认为,人工智能机器人本质上是一种产品,适用产品质量的相关法律规则已经足以应对相关纠纷。但我认为,人工智能机器人与其他的产品不同,其所引发的纠纷要更为复杂和多样化,需要法律专门予以应对。具体而言,一是要对人工智能机器人的设计进行规范,尤其需要对其所包含的程序进行一种事先的审查,防止其被植入恶意程序。二是要对人工智能机器人的生产和销售行为进行特别规范,以有效控制人工智能可能引发的负面影响。

随着人工智能的发展,法律领域也产生了一门新的学科,即法律信息学,它是研究如何在法律上应对人工智能现象的学科。该领域主要是以人工智能和法律为核心从事法律、社会科学、信息学、智能技术、逻辑和哲学领域等跨学科的研究。有的国家已经开始利用人工智能从事简单的案例分析、资料归类以及表格制作等工作。例如,在2015年5月,英国博闻律师事务所(BLP)向其研发的合同机器人发出指令,并很快得到了一些分析资料。美国有的律师事务所也开始研发所谓的“人工智能律师”(ROSS)系统,它能够自动检索法律文档数据库,找出与人提出的问题相匹配的答案。在识别自然语言提出的问题后,从庞大的法律和案例数据库中进行搜索,找到可能的答案,对所有答案进行评估,最终提供一个解决方案。该系统会根据用户的反馈进行自我学习,算法也会不断地调整优化。有不少人认为,随着人工智能的发展,未来可能出现人工智能法官,就像马克斯·韦伯当年提到的犹如自动售货机一般的理想的司法模式:一端输入案件事实,另一端吐出司法裁判,这也类似于孟德斯鸠所描述的法律的“传声筒”。它的记忆和检索的功能非常强大,能够为司法审判提供相对统一的推理和评价标准,从而辅助法官作出具有一贯性的判决。

美国电影《终结者》已经预言了人工智能机器人超级战士击败人类的结果。霍金认为,人工智能的发明,可能是人类历史上最大的灾难。如果管理不善,会思考的机器人可能会给人类文明画上句号。上述论断现在看来并非危言耸听。因此,如何把人工智能可能对人类造成的损害控制在可提前预测的范围内,是法律工作者应当提前应对的重要课题。