为什么我们如此畏惧人工智能?
我们常常会看到诸如此类的预测:到2027年,AI驱动的机器将会比人类驾驶员的技术更好;2049年,机器人将写出畅销书;2053年,机器人可以上手术台做手术,等等。
不可否认的是,随着机器学习和深度学习算法的快速发展,算法训练所仰赖的大数据和计算力正在呈现爆发式增长,这一切使得AI变得越来越“聪明”。如果有人认为这些预测有点天方夜谭,不妨统计一下现在市面上有多少算法写成的小说被明码标价摆在暑假工上销售,比如大家并不陌生的美联社,它家的AI协作系统早在2015年就已经能够在一个季度内写出4000篇文章,而且还是能卖钱的文章,记者可以腾出更多时间去写深度文章。这对于像我一样的文字工作者来说将既是一个挑战,也为我们提供了一些便利,提高工作效率。
此外,在艺术展览、游戏等创造性领域,AI算法已经有很多不错的成果,有些算法创造的艺术品甚至可以和人类媲美。
但是,我们同时也应该了解,人工智能在实际应用中依然有很多亟待解决的问题。
从人工智能的原理上讲,神经网络由成千上万个简单的处理节点互相连接而成,单个节点连接起来接收或发送信息,经过反向传播,得出我们想要的结果。然而,神经网络还是一个“黑盒子”,一旦投入数据训练,即使是它的设计者也不知道结果是如何产生的。这就诞生了“弗兰肯斯坦”算法,在小说《科学怪人》中的神秘实验室中,疯狂科学家弗兰肯斯坦制造了这个“怪物”,但其命运却不受控制。
神经网络的这一特性,导致了2016年微软名为Tay的AI聊天机器人学会了种族主义,并被迅速下线;2017年,Facebook的聊天机器人在聊天过程中自创了人类不理解的语言,项目同样火速下线;2018年,IBM的辩论机器人与人类辩手同台竞技,帮助人们“有依据地处理复杂的问题”。
有时候,AI也会决定人的生死。2018年3月,Uber无人车在亚利桑那州撞人致死,即使当时车上有人类驾驶员,也没有避免悲剧的发生。作为回应,Uber停止了在多地进行的路测。苹果、特斯拉等自动驾驶车辆也发生了多起车祸事件,人们对自动驾驶安全性和可靠性的质疑声越来越大。
面对这种情况,企业、政府和研究人员开始探索“可解释的AI”,也就是透明的AI。在他们看来,可解释的机器学习系统应该具备可解释动机、可预测的能力。但不可避免的是,一方面,自主学习的算法可以解释行为的动机,但同时会学会人类的那一套偏见。因此,他们认为,具有高级心智状态的AI还应该有道德感,像人类一样,由各种不同的规则束缚。
实际上,我们在目前各个领域中看到的AI产品大多属于“弱AI”,比如AI聊天机器人、AI个人助理、智能家居助手等。虽然无人驾驶听起来“高大上”,但也属于“弱AI”的范畴。换句话说,“弱AI”没有人类意识,人工神经网络也和人类大脑不一样,只是对人类大脑的简单模仿而已。
所以,我们为什么要畏惧AI呢?可能有一部分原因是我们把“弱AI”和“强AI”混淆了。“强AI”机器人将会拥有和人类一样强大的大脑,可以自主学习、认知甚至表达感情,这才是我们应该害怕的。
但是,“强AI”,也被称为真正的智能或AGI(通用人工智能)出现在现实世界中,是很久远之后的事情了,但是到那一天到来时,也许我们发现机器人和人类一样固执、情绪化,不必惊讶,毕竟它们是人类的产物。