1.6 关于主要问题的对立观点
本节介绍并反驳了9个方面的对立观点。
经过前面几节的讨论,现在我们可以认为,情况已经明朗,我们准备就“机器能思考吗”及上一节结尾提到的该问题的变体展开辩论了。我们并不能完全放弃问题的原始形式,因为对替换的合理性存在不同意见,我们至少应该听一听这方面的有关意见。
根据这一段的首句,本文前5节都是为了“打基础”,第1节提出“模仿游戏”是什么,第2节对问题的合理性进行说明,第3节对游戏中的“机器”进行说明,第4节对“数字计算机”进行了详细的说明,第5节对“数字计算机”进行了更深入的说明。
如果我先解释自己在这一问题上的看法,对读者来说将会简化问题。首先让我们考虑这一问题更确切的形式。我相信,大约50年后计算机的存储量可达到109左右,从而可在模仿游戏中表现很好,以至于一般提问者在提问5分钟后能准确判断的概率不会超过70%。我认为原来那个“机器能思考吗”的问题没有意义,从而不值得讨论。尽管如此,我认为到20世纪末,由于词语的使用和由教育形成的一般见解会发生很大改变,那时候人们能谈论机器思维而不用担心被反驳。我还认为,掩盖这些看法不会有益处。一种流行的观点是,科学家进行科学研究工作总是从可靠的事实到可靠的事实,从来不受任何未经证明的猜想所影响,这种观点实际上是相当错误的。假如能清楚哪些是经过证明的事实,哪些是猜想,将不会产生害处。猜想是极其重要的,因为它们能够提示有用的研究线索。
上面这段话在讨论研究方法,具有启示意义。科学研究需不需要猜想、展望、预言、信念?艾伦·图灵明确指出:需要!在这篇文章结束的时候,他还会提到,他是在展望一个不太远的未来,虽然目光所及并不太远,但已经有很多事情要做。
艾伦·图灵估计50年后,也就是2000年,计算机的存储容量是1Gb(注意存储容量的单位为bit),所以计算机在模仿游戏中的表现会更好。但艾伦·图灵没有预言说,计算机在2000年就可以具有思维了,能够思考了。他的表述是“一般提问者在提问5分钟后能准确判断的概率不会超过70%”。这是一个很睿智的表述。
把这个表述一般化,“一般提问者在提问n秒后能准确判断的概率不会超过m%”。n越大,m越小,机器的智能水平越高。这里实际上考虑了性能、响应时间的因素,所以含有“实用可计算”的思想。
艾伦·图灵指出猜想是重要的,因为它们能够提示有用的研究线索。
当前,计算机科学的理论与“希尔伯特23个问题”“理查德·卡普21个NP-完全问题”“克雷数学研究所7个千禧年问题”中的某些问题有直接或间接的联系,一方面要研究这些联系并吸收已有研究成果,另一方面要根据新时代的需求特征提出自己的一组基本问题,以问题为导向,经历“理论顶层设计-问题并发突破-理论收敛融合”的三个发展阶段。
学科可以带动任务,任务也可以带动学科,但无论是学科还是任务,最根本的内在驱动力是问题。例如,在美国芝加哥市,物理学方面,芝加哥大学以学科为主,费米国家实验室以任务为主,两者相互强有力地促进和带动;在国内长春市,车辆工程方面,吉林大学以学科为主,中国第一汽车集团有限公司以任务为主,两者也相互强有力地促进和带动,但以满足新需求为目的的新问题,是学科和任务的共同驱动力。根据到19世纪为止数学发展的整体状况,1900年希尔伯特在巴黎第二次世界数学家大会上提出23个重要的数学问题,统称为“希尔伯特23个问题”,有力地推动了20世纪数学的发展。希尔伯特十分强调“问题”的重要性,他在关于23个问题的报告中说,“只要一门科学分支能提出大量问题,它就充满着生命力,而问题缺乏则预示着独立发展的衰亡或终止”。新时代计算机科学的理论与“希尔伯特23个问题”中的某些问题有直接或间接的联系,比如“希尔伯特第1问题”连续统假设问题,“希尔伯特第8问题”素数问题,“希尔伯特第10问题”丢番图方程可解性的判定性问题。
对于新时代计算机科学的理论,要提出一组问题(例如前述的命题中提到的一些问题),对每个问题的终极形式或弱化形式的解决方案提出一些猜想,在科学研究的“四个范式”(实验、理论分析、数值模拟、数据分析)的辅助指导下,完成猜想的真、伪或不可判定的证明。哥德巴赫猜想于1742年被提出,虽然至今还没有被证明,但从1920年开始世界各国科学家逐步证明了它的一系列弱化版本,越来越逼近猜想本身,在这个过程中,大量的数论技术被发明出来,推动了整个学科的发展,这些伴随产出物的意义实际上已经超过了猜想本身,体现了“钓胜于鱼”的理念,因此猜想驱动的研究成为学科发展的一种有效模式。
有些猜想完全靠人脑思考且耗时,例如安德鲁·怀尔斯用了7年时间完成了费马大定理的证明,论文长达109页(WILES A.Modular Elliptic Curves and Fermat's Last Theorem[J]. Annals of Mathematics, 1995,141(3):443-551.);有些猜想可以依赖计算机验证找出反例,例如Lander和Parkin在1966年用CDC 6600计算机通过搜索找到欧拉猜想(与费马大定理有关)的一个反例,全文只有1句话。这两个例子给我们的启示是:
(1)验证比求解容易,这一点与NP/P问题有关。
(2)50多年前人类就成功将计算机用于证明(主要用于证伪),现在的计算机的计算和存储能力已经远远高于50多年前,更有理由广泛将计算机用于理论研究。
(3)怀尔斯一定程度上代表了人类的智能水平,很难想象让现在的计算机去写出怀尔斯完成的109页的证明,但是如果NP=P,就有可能了,那时强人工智能可能在一定程度上被实现了。
所有这些问题、猜想、证明就构成了一个有组织、有条理的理论体系,由于问题之间存在着联系,关于某一个问题的猜想首先得到解决,会带动其他问题及其猜想的解决,所以理论体系中会有一个基本的核心,它是新的时代条件下计算机科学理论经过收敛融合之后的形式。这个形式的理论是简洁的,又是本质的,就像牛顿经典力学三大定律、麦克斯韦方程组、爱因斯坦质能方程那样。就像传统可计算理论有递归函数、图灵机、波斯特机等三种形式,新时代计算机科学理论的形式可能不唯一,衡量理论优劣的一个指标是,呈现本质性和关键性细节的程度/理论描述的长度,这个指标越大,理论质量越高。
现在我来考虑与我的看法相对立的观点。
1.6.1 来自神学的异议
来自神学的异议的论据是:思维(thinking)是人类永恒灵魂的一个功能。上帝赋予每个男人和女人一颗永恒的灵魂,但从未将它赋予任何其他的动物或机器。因此,动物或者机器不能思考。
上面这段话是神学的观点。先把靶子竖起来,接下来,就要进行批驳了。
我不能接受这种观点的任何部分,但是我试图用神学的术语来回复。如果将动物和人划为一个类别,我将发现这个论据更有说服力,因为在我看来,生物与非生物之间的差别要比人和其他动物之间的差别大。如果站在其他宗教团体成员的立场看,这种正统观点的武断性会更明显。但是,现在暂不管这一点,让我们回到主要论据上来。在我看来,上面所引的论据对上帝的全能性有严重的限制。人们承认上帝对有些事情也无能为力,比如,他不能让1等于2,但是难道我们不应该相信,如果上帝觉得合适,他完全可以赋予一头大象以灵魂吗?我们可以期望上帝实践自己的威力,同时大象产生变异,有了一个适度改善的大脑以满足灵魂的需要。形式相似的论据也可以用在机器上。这或许看起来不同,因为更难以“忍受”。但这只是说明我们认为不太可能上帝认为这些环境适合被赋予灵魂。所说的环境将在本文的其余部分被讨论。在企图制造这样的机器时,我们不应该无礼地篡夺上帝创造灵魂的权力,就像不应该剥夺我们生儿育女的权力那样。在两种情况下,我们其实都是上帝意志的工具,为他所创造的灵魂提供住所。
艾伦·图灵采取科学的态度,中立、谦卑但不失锐利,有判断但不武断,能用神学的语言去换位思考,去回复对立的观点。神学认为只有人才被赋予灵魂,动物或机器均没有被赋予灵魂。艾伦·图灵首先从距离的角度去考虑问题:
D(动物,人)<D(生物,非生物)
这提出了神学观点的改进版。若一个观点被改进之后更合理,那这个观点被改进之前就具有很大的不合理性。
实际上,我们可以展开思考:
D(动物,人)<D(动物,植物)<D(植物,非生物)
D函数肯定是与智能相关的一个重要函数。
神学本身不是铁板一块,显然神学不同派别之间存在教义上的矛盾。
既然认为上帝是万能的,那么上帝为什么不能赋予动物灵魂呢?
然而,这只是猜测。我对神学的论据没有深刻印象,不管它们被用来支持什么。这样的论据在过去经常被发现不令人满意。在伽利略时代,有人提出“于是日头停留……不急速下落,约有一日之久”(《约书亚书》第10章第13节),以及“将地立在根基上、使地永不动摇”(《诗篇》第104章第5节)。这些经文是对哥白尼理论的充分驳斥。从我们今天的知识来看,这种论据是无效的。当没有这些知识时,它就会造成一个相当不同的印象。
1.6.2 “鸵鸟”式的异议
什么是“鸵鸟”式?关于鸵鸟比较流行的一个观点是:鸵鸟性格怯懦胆小,面对危险时常常会选择把头迅速埋进沙子里,以为这样敌人就无法发现自己了。
“鸵鸟”式的异议的论据是:“机器思维的后果太令人恐惧了。让我们希望和相信机器不会思考。”
这一论据不如上面的说法那样直言不讳,但对考虑过这一论据的大多数人有影响。我们都倾向于认为人类以某种微妙的方式比其他生物优越。要是能证明人类一定是优越的,那再好不过了,因为那样一来,人类就没有失去领导地位的危险。神学论据的流行明显与这种态度密切有关。这种看法在知识分子中会更强烈,因为他们比其他人更看重思维的力量,更倾向于将他们关于人类的优越性的看法建立在思维能力的基础上。
我认为这个论据不足够牢固,从而不需要反驳。
知识分子容易清高,可能源于有知识而产生的优越感。
“鸵鸟”式的异议在人工智能发展较为顺利的时期往往更为凸显。主要是担心人类的优先性和优越感被挑战。
1.6.3 来自数学的异议
数理逻辑(mathematical logic)中的一些结果可以用来指出离散状态机能力的局限,其中最著名的就是哥德尔定理,此定理声称,在任何足够强大的逻辑系统中,能够构造一些在本系统中既不能被证真也不能被证伪的陈述,除非这个系统本身就是不一致的。丘奇、克莱因、罗瑟和图灵等人也得到了在一些方面相似的结果。图灵的结果最方便考虑,因为它直接涉及机器,而其他人的结果只能被用于相对间接的论据中。例如,如果使用哥德尔定理,我们还需要某些附加手段,通过机器描述逻辑系统,通过逻辑系统描述机器。所论及的结果涉及一种实质上是一台具有无限存储容量的数字计算机的机器。这样的一台机器,对有些事情是无能为力的。如果计算机被操纵能在模仿游戏中回答问题的话,对有些问题它将给出错误的答案,或者不管给它多长时间它也回答不上来。当然,可能存在着许多这样的问题,这台机器回答不了的问题,另一台机器却能给出令人满意的答案。我们现在假定,问题是只要回答“Yes”或“No”就可以的类型,而不是“你认为毕加索怎么样”这类问题。我们知道机器必定无法回答的问题是下述这类问题:“考虑有以下特点的机器……这台机器会不会对任何问题做出‘Yes’的回答?”这里省略的是对某台机器的标准形式的描述,这种机器与第5节中所用到的机器相同。如果所描述的机器与那台被提问的机器具有某些相对简单的联系,那么,我们就能知道,不是答案错了,就是还没有得到答案。这就是数学的结论:此结论证实机器能力有限,而人类智能则没有这种局限性。
“你认为毕加索怎么样”是疑问句,不是命题。之所以数理逻辑的研究对象是命题,原因也在这里。
上面这段话提到逻辑学家哥德尔,并提到了丘奇、克莱因、罗瑟和图灵。注意图灵自己说“图灵的结果最容易理解”,他“肯定了”自己,但给出了理由——他的结果“直接涉及机器”。这是客观的结论。
对于来自数学的异议,艾伦·图灵在反驳时具有得天独厚的发言权,因为他直接做了这方面的工作,而且所做的工作在全部的工作中与机器结合最直接、直观。所以,这里出现了人类科学研究史上一个难得的奇观:一个人如何批驳与自己之前工作有关的观点?
艾伦·图灵在上一段中提到,机器必定无法回答的问题是下述这类问题:“考虑有以下特点的机器……这台机器会不会对任何问题做出‘Yes’的回答?”这里省略的是对某台机器的标准形式的描述,这种机器与第5节中所用到的机器相同。如果所描述的机器与那台被提问的机器具有某些相对简单的联系,那么,我们就能知道,不是答案错了,就是还没有得到答案。
艾伦·图灵为什么这么说呢?这说的是不可计算问题,在本书第2章将会专门论述。
我们在这里先略微论述一下这个问题,想表达这样的观点:有些工作,例如图灵可计算性理论、实用可计算性理论、物理学中的守恒定律等,需要联系在一起。
我们研读过康托尔、哥德尔、丘奇、克莱因、图灵等人的著作,阅读过中国科学院徐志伟研究员关于云计算数据中心的“实用可计算理论”,听过南方科技大学数学系主任夏志宏教授关于“尺规作图不能问题”的一次报告,注意到钱学森特别强调系统的开放性,华为任正非把系统的开放性作为企业“减熵”的两大举措之一(另外一个举措是“艰苦奋斗”)。
尺规作图是指用无刻度的直尺和圆规作图。尺规作图是起源于古希腊的数学课题。只使用圆规和直尺,并且只准许使用有限次,来解决不同的平面几何作图问题。
尺规作图不能问题就是不可能用尺规作图完成的作图问题。其中最著名的是被称为古希腊三大几何问题的古典难题:
(1)三等分角问题:三等分一个任意角。
(2)倍立方问题:作一个立方体,使它的体积是已知立方体的体积的两倍。
(3)化圆为方问题:作一个正方形,使它的面积等于已知圆的面积。
在2400年前的古希腊已提出这些问题,直至1837年,法国数学家万芝尔才首先证明“三等分角”和“倍立方”为尺规作图不能问题。1882年德国数学家林德曼证明π是超越数后,“化圆为方”也被证明为尺规作图不能问题。
我们知道合外力为0时,动量是守恒的;合力矩为0时,角动量是守恒的。系统的封闭性是系统能力的有限性的根源。合外力、合力矩为0,都是系统封闭性的体现。
标签化资源管理(DIP)、性能优化,都是产生“合外力”或“合力矩”,让系统远离平衡态,这也是普里高津耗散系统的思想。
我们再想一想,如何理解熵呢?克劳修斯熵、玻尔兹曼熵、香农熵、云计算熵,虽然形式不同,但都是相通的,有必要也有可能把它们统一起来。
高熵对应的是“具有很多微观态的宏观态”,低熵对应的是“具有很少微观态的宏观态”,“曲高和寡”“学如逆水行舟,不进则退”“由俭入奢易,由奢入俭难”,这些都蕴含着这样的思想。
系统内还是系统外,这是很重要的分别。
系统的整体具有系统的各个部分所不具有的性质,是系统的整体性。系统的内部与外部的分别,是系统的边界性。
从广义上说,系统的边界性隶属于系统的整体性。系统的整体性是系统的灵魂。当系统的整体性对内或对外有一个消失的时候,系统就消亡了。
人是一个系统,计算机是一个系统。人的整体性,对内表现为人具有他的各个器官单独所不具有的性质,对外表现为人与环境有清晰的界限。
我们现在举一个计算机不可计算的问题——停机问题。对于任意的图灵机和输入,是否存在一个算法,用于判定图灵机在接收初始输入后可达停机状态。若能找到这种算法,停机问题可解;否则不可解。通俗地说,停机问题就是判断任意一个程序是否在有限的时间内结束运行的问题。
问题:能否找到一个测试程序,这个测试程序能判定任何一个程序在给定的输入下能否终止。
证明:我们用反证法证明(图灵在本书第2章使用的对角线法也是反证法),就是说,先假设存在这样的测试程序,然后再构造一个程序,该测试程序不能测试。
假设存在测试程序T,若输入程序P能终止,输出x=1;若输入程序P不能终止,输出x=0。
我们总能构造这样一个测试程序S,当P终止时,S不终止;当P不终止时,S终止。
这样如果我们把S当作输入(S本身的输入),就会得出一个悖论:当S能终止时,S不终止;当S不能终止时,S终止。
对上面这种现象,读者可以结合“元数学与元物理”进行深入思考。元数据(Metadata)是描述数据的数据(data about data),是对数据的观察、分析和归纳。形而上学(Metaphysics)是超越物理的,即“元物理”。《易经·系辞》中有“形而上者谓之道,形而下者谓之器”。“元数学”(Metamathematics)是一种将数学作为人类意识和文化客体的科学思维或知识,即元数学是一种用来研究数学和数学哲学的数学。将元数据进一步递归,可以有元元数据,以此类推。具体地,为了表示事物的运动规律,有速度、加速度、加加速度;为了表示事物的不确定性,有熵、超熵、超超熵,李德毅院士据此提出了不确定性人工智能,等等。信息、知识、预测、洞察、智能、智慧是逐级递升的元数据。
系统因为自己能力的局限,往往在讨论系统自身的时候就出现了悖论那样的纠缠不清的问题。“当局者迷,旁观者清”,所以我们需要在系统外部对系统做一些观测,这就是“元××”的思想,例如对于数学的外部观测就是“元数学”,对计算机数据访问的外部观测就是“元数据”,这也是标签化冯·诺依曼体系结构DIP(可区分、可隔离、可优先调度)这三种能力从“元数据”角度必然需要的原因。
“元××”这个可递归的重要概念在从数据、信息、知识直到智慧的逐级不断抽象的过程中具有重要作用。
罗素悖论是由罗素发现的一个集合论悖论,其基本思想是:对于任意一个集合A,A要么是自身的元素,即A∈A;A要么不是自身的元素,即A∉A。根据康托尔集合论的概括原则,可将所有不是自身元素的集合构成一个集合S,即S={x:x∉x}。
也就是说,罗素构造了一个集合S:S由一切不属于自身的集合所组成。然后问:S是否属于S呢?根据排中律,一个元素或者属于某个集合,或者不属于某个集合。因此,对于一个给定集合,问是否属于它自己是有意义的。但对这个看似合理的问题的回答却会陷入两难境地。如果S属于S,根据S的定义,S就不属于S;反之,如果S不属于S,同样根据定义,S就属于S。无论如何都是矛盾的。
理发师悖论:有一位理发师说:“我将为也只为本城所有不给自己理发的人理发”。那么,他给不给自己理发?如果他不给自己理发,他就属于“不给自己理发的人”,他就要给自己理发,而如果他给自己理发,他又属于“给自己理发的人”,他就不该给自己理发。
书目悖论:一个图书馆编纂了一本书名词典,它列出这个图书馆里所有不列出自己书名的书。那么,它列不列出自己的书名?这个悖论与理发师悖论基本一致。
对这个论点的简短答复是,尽管已经确定任何特定机器的能力都存在限制,但人的智能不受限制,仅仅被陈述,并没有任何证明。我认为这个论点不能就这么轻易驳回,每当一台这样的机器被问及适当的关键问题,并给出确定的答案,而我们知道此答案一定是错的,我们无疑会产生一种优越感,这种感觉是错觉吗?毫无疑问,这是真实的,但我认为不应该过分重视它。我们自己经常会答错一些问题,却会对机器的错误而沾沾自喜。而且,我们的优越感来自对付一台机器,但我们无法同时对付所有的机器而且不出差错。总而言之,人可能比任何特定的机器聪明,但是可能有更聪明的其他机器。
图灵在《论可计算数及其在判定性问题中的应用》一文中,说明了任何机器都有不可计算的问题。表面看起来,这是一个悲观的观点或结论,因为它说明了机器的智能有无能的一面。但图灵指出,人的智能也可能有无能的一面,机器有时会犯错误,但这没什么,因为人也经常犯错误,人类犯了太多的错误,所以没有资格因为机器犯错误而产生优越感。
我认为,坚持数学论证的人大多愿意接受模仿游戏作为讨论的基础,那些相信前两个反对意见的人可能对任何标准都不感兴趣。
第3种观点与第1、2两个观点一样,都是错误的,但坚持第3种观点的人比坚持第1、2两个观点的人要进步。坚持数学论证的人至少是科学界的人,是尊重或相信数学和逻辑的结论的,只是在严谨性上做得不好(比如错误地不加证明地认为人的智能没有限制),而第1、2两个观点则充满了主观主义的色彩。
1.6.4 来自意识的异议
“consciousness”指意识。“argument”有时译为“论据”,有时译为“异议”。
这个论点在杰斐逊教授于1949年的一次演讲(Lister Oration)中有很好的表达,我引用他的一段话:“除非机器能够出于思绪和情感的流露,写出十四行诗或者协奏曲,而且不是随机地落下音符,那才能说机器能够媲美大脑——也就是说,它不但会写,而且知道自己在写。没有什么机械装置能够感受到(而不仅仅是人工地发出信号,这是一个简单的发明)成功的喜悦、阀门熔断时的悲伤、被赞美的温暖、犯错后的痛苦、性的吸引、求而不得时的气恼或难过。”
1949年6月9日,同在曼彻斯特大学的神经外科教授杰弗里·杰斐逊(Geoffrey Jefferson)在一次演讲中表达了自己对于数字计算机的现状与前景的看法。这场演讲以“机器人的心灵”(The mind of mechanical man)为题,评论了包括图灵参与的项目在内的几个数字计算机项目。杰斐逊以人类为参照,为机器智能设立了极高的标准,表示“机器人不可能有心灵”。
杰弗里·杰斐逊教授的想法是很多人(包括很多现代人)的想法:“机器只不过是人工信号,只是发明”“机器没有情感和意识”。
这个论点看上去否定了我们测试的有效性(validity)。按照这种观点的最极端形式,一个人确信机器思维的唯一途径就是成为那台机器,自己去感受思维活动,然后向世人描述这种感受,但是当然没有人有理由相信人成为机器后所说的话。同样,依照此观点,要想知道某人是否在思考,唯一的途径就是成为那个人,这实际是唯我论(solipsism)的观点,这也许是所持的最有逻辑的观点,但若真是这样,那思想交流就太困难了,A倾向于相信“A在思考,而B没在思考”,而B倾向于相信“B在思考,而A没在思考。”与其为此争执不休,不如客气地约定大家都在思考。
注意此段首句中的“有效性”(validity)一词,本书第5章的标题中也将出现这一词语。
按照唯我论的观点,一个人想知道机器是怎样想的,但是必须成为机器才可以,抛开一个人没有办法成为机器,即使有办法成为机器,他成为机器之后向世人诉说的话,我们敢信吗?不敢。有正当理由相信面前这位由人变的机器所说的话吗?没有正当理由。
唯我论是认为除“我”或“我”的精神之外没有任何东西存在,整个世界及其他人都是“我”的感觉、经验和意识的一种观点,是主观唯心主义走向极端的必然结论。在中国哲学史上,孟子所说的“万物皆备于我”(《孟子·尽心上》),王阳明所说的“心外无物”(《与王纯甫书二》),都代表了一种唯我论的观点。在西方哲学史上,英国主观唯心主义哲学家乔治·贝克莱(George Berkeley)是唯我论的典型代表,他把世界上的一切事物及其性质都消融在“我”的感觉经验之中,认为除了感觉经验之外别无他物存在。他宣称,“存在就是被感知”,“物是观念的集合”。认为物体之所以存在,是因为它被感觉到,如果感觉不到它,它就不存在。因此,一切都仅仅由于我的感觉而存在,而一切都存在于我的感觉中。世界上剩下的只是我的感觉、一个唯一存在的“自我”。现代西方哲学中的许多流派,都把全部哲学建立在感觉经验的基础之上,因而往往走向唯我论。
注意,为纪念乔治·贝克莱,加州大学的创始校区定名为加州大学伯克利分校(University of California at Berkeley),“贝克莱”和“伯克利”只是译法不同,所指相同。
奥地利主观唯心主义者恩斯特·马赫和他的信徒继承了贝克莱的衣钵,但又采用了一些新名词术语,如他们把“物是观念的集合”,改换为“物是要素的复合”,颜色、声音、气味等就是这样的“要素”,也就是感觉。马赫主义的另一个创始人理查德·海因里希·阿芬那留斯则公然声称,只有感觉才能被设想为存在着的东西,在感觉以外没有任何东西。一切坚持主观唯心主义的哲学思潮或个人,其最终都必然要陷入唯我论的泥潭。
我肯定杰斐逊教授并不希望采纳极端的和唯我论的观点,他也许很愿意接受模仿游戏作为一个测试。模仿游戏(省略了游戏者B)在实际中经常采用“口试”的方式来发现某人是真的理解某事,还是“鹦鹉学舌”。让我们听听这种“口试”的一部分:
询问者:你在十四行诗的第一行写道,“我欲比君为夏日”,若将“夏日”改成“春日”,是否更好?
见证人:这样就不押韵了。
询问者:改为“冬日”呢?这样会押韵。
见证人:可以,但是没有人愿意被比作冬日。
询问者:你说匹克威克先生让你想到圣诞节了?
见证人:某种程度上。
询问者:然而圣诞节也是冬日的一天,我认为匹克威克先生不会在意这个比喻。
见证人:我认为你在开玩笑,冬日是指一个典型的冬日,而不像圣诞节那样特殊的一天。
不再赘述。如果那台写十四行诗的机器在“口试”中能够这样对答,杰斐逊教授会作何感想呢?我不知道他会不会把机器的那些答复当作“人工信号”,但是,如果这些答复如上面所引的那样令人满意并且持续下去,我认为他不会将其形容为“简单的设计”。“简单的设计”是说用来播放一个人念十四行诗的录音,并可通过适当的开关不时地将其打开。
总之,我认为大多数支持来自意识方面异议的人会被说服而放弃原来的主张,不至于陷入唯我论的困境,这些人因此也就有可能愿意接受我们的测试。
我不想给人留下这样的印象:我认为关于意识的事情没有神秘感。例如,存在着与任何企图捕捉意识有关的悖论,但我认为在我们能够回答我们在本文中关注的问题之前,并不一定要解决这些谜团。
什么是意识?意识的本质什么?艾伦·图灵认为在回答“计算机能否思维”这个问题时,不一定需要解决这些谜团。
1.6.5 来自各种能力缺陷的异议
这些异议具有以下形式:“我担保,你可以让机器做任何你提到的事情,可你永远也不能使一台机器做X。”X被建议具有各种特征,这里我列举一部分:
是善良的,机敏的,美丽的,友善的,有创新精神的,有幽默感的,明辨是非的,犯错误,坠入爱河,享受草莓和奶油,让某人爱上它,从经验中学习,恰当使用词汇,成为自己思想的主题,像人一样有多样化的行为,做一些真正新颖的事情(一些能力缺陷将在后面内容中给出特别的考虑)。
上面是待批驳的观点。成为自己思想的主题,就是自我反思、自省。
这些说法通常是没有根据的。我相信它们大多是建立在科学归纳原理的基础上的。一个人一生中见过数千台机器。从所看到的机器,他得出一些一般结论:它们形态丑陋,每台机器是为有限的目的而设计的,只要目的略有变动,它们就无用了,行为变化也小,等等。自然地,他得到结论,这些就是一般机器的必要性质。这些能力缺陷中的很多缺陷与机器存储容量小有关(我假设,存储容量这个概念不仅仅限于离散状态的机器,还可以扩展到别的机器。确切的定义不那么重要,因为目前讨论中还没有断言数学精度)。数年前,由于很少提及数字计算机,要是你光说其特征而不提其构造,就会以为你在信口开河。这大概是因为人们类似应用了科学归纳原理。这些对科学归纳原理的应用很大程度上是无意识的。当一个被火烫过的小孩害怕蜡烛,从而回避使用蜡烛时,应该说他是在应用科学归纳原理(当然,也可以用许多其他的方式来解释这一现象)。人类的工作和习惯似乎并不适合运用科学归纳法。如果你想获得可靠的结果,就要对大部分时空进行研究,否则我们会(像大多数英国儿童一样)以为世界上所有的人都讲英语,学习法语很愚蠢。
“数年前,由于很少提及数字计算机,要是你光说其特征而不提其构造,就会以为你在信口开河。”历史是创造出来的,历史是无数个偶然事件编织串联在一起组成的画卷。历史的发展有时在人们的预期之中,有时比预期要更坏更慢,有时比预期要更好更快。
归纳的一个弊端是容易坐井观天、以偏概全。不要认为自己看到的或知道的就是全部。
“如果你想获得可靠的结果,就要对大部分时空进行研究,否则我们会(像大多数英国儿童一样)以为世界上所有的人都讲英语,学习法语很愚蠢。”艾伦·图灵的这句话对今天大数据的研究具有重要意义。大数据为人类提供了“对大部分时空进行研究”的机遇和素材。但需要指出的是,对大部分时空进行研究是困难的,背后需要的数据量是极其庞大的,有些时间和空间上的数据并不总是容易获得的,且采集和标记数据往往需要极高的成本。
艾伦·图灵在这里提到“光说其特征而不提其构造”,这一句背后是两种指示事物的方法。“说其特征”是“描述法”,“提其构造”是“构造法”。
这里需要注意一下柏拉图的“理念世界”。柏拉图认为,人的一切知识都是由天赋而来,它以潜在的方式存在于人的灵魂之中,因此知识不是对世界物质的感受,而是对理念世界的回忆。教学的目的是恢复人的固有知识,教学的过程就是回忆理念的过程。就此而言,柏拉图的教学认识是一种先验论,而图灵所持的是归纳基础上的认识论。
然而,关于刚才提到机器的许多能力缺陷,还要特别说几句,说机器没有能力享受草莓和奶油,会使读者觉得有点轻率。我们有可能使机器喜欢这些美味,但任何强迫这样做的企图都是愚蠢的。值得重视的是,这种能力缺陷会引起一些其他能力缺陷(比如,难以使人与机器之间形成那种像人与人之间的友好情感)。
断言“机器不能犯错误”,似乎是一个奇怪的说法。我们不禁要反问,“机器会因此更糟吗?”让我们采取更加同情的态度,来看看这究竟意味着什么。我认为可以用模仿游戏来解释这种批评。有人声称,在游戏中提问者简单问几道算术题就能分辨出哪个是机器,哪个是人。由于自身的极高的精度,机器会被暴露。对此做法很简单,(被编程用于玩模仿游戏的)机器将不试图给出算术问题的正确答案,而是故意算错,以蒙骗提问者。机器由于机械故障,会在做算术题时出现错误而做出不妥当的决定,因而暴露了自己。即使这种对批评的解释也不足够有同情心。但是限于篇幅不再进一步讨论。在我看来,这种批评源于混淆了两个不同性质的错误,这两个错误我们称为“功能错误”(errors of function)和“结论错误”(errors of conclusion)。功能错误是由某些机械或电气故障引起的,这些故障导致机器的行为与预先设计的不符。在进行哲学讨论时,我们希望忽略发生这种错误的可能性,这样的话,我们实际上是在讨论“抽象的机器”,而这些抽象的机器是数学上的虚构,而不是物理上的物体。从定义上讲,我们完全可以说“机器从不出差错”。只有当机器的输出信号被附加一定的含义时才会出现结论错误。比方说,机器能够自动打出数学方程或英语句子。当机器打出一个错误的命题时,我们就认为这台机器犯了结论错误。很明显,找不到丝毫理由说,机器从不犯这类错误,一台机器有可能别的什么也不能做,只会重复地打出“0=1”。举一个不太反常的例子,可能有通过科学归纳得出结论的方法,但这种办法有时会导致错误的结果。
如果能证明机器的某些思想具有某些题材的话,就能答复机器不能成为它自己思想的主题这种断言。尽管如此,“机器操作的题材”确实有点意义,至少对于研究它的人来说是这样的。比如,如果一台机器试图解x2-40x-11=0这个方程,我们会想要将此时这个方程描述为机器题材的一部分。从这种意义上说,机器无疑能够成为它自己的题材。这对编排它自己的程序,对预测因本身结构变化带来的后果都会有所帮助。机器能够通过观察自己行为的结果,修改自己的程序,以便更有效地达到某种目的。这是不久的将来可能办到的事,而不是乌托邦式的空想。
批评机器不能有多样化的行为,就是变相地说,机器不能有很大的存储容量。直到最近,达到1000位的存储容量都很罕见。
在1950年,距离世界上第一台数字计算机EDVAC诞生刚刚五年,机器的存储能力极为有限,连1KB的存储量都很罕见。
我们这里考虑的批评,实际上都是来自意识的那个异议的改头换面。通常,如果我们坚持认为,一台机器能够做其中的一件事,并对机器所能采用的方法进行描述,不会给别人多深的印象。人们会认为机器所使用的方法(不管是什么方法,总是机械性的)实在太基础了。请参见前面所引杰斐逊演讲中括号内的话。
1.6.6 来自洛芙莱斯夫人的异议
关于巴贝奇分析机(Babbage's Analytical Engine)最详细的信息来自洛芙莱斯夫人的回忆录,她写道:“分析机没有意图想要原创(originate)什么。它可以做我们知道该怎样去指挥它去做的任何事情”(粗体为她本人所加)。哈特里(Hartree)引用了这段话,并补充道:“这并不意味着就无法制造能‘独立思考'的电子设备,用生物学的话说,我们能够在其中建立条件反射,用作‘学习'的基础。此设想在原则上是否可行,从最近的进展来看,是一个吊人胃口、令人兴奋的问题。但是,当下制造的或者计划制造的机器似乎还不具备此特点。”
艾伦·图灵的思想不是凭空产生的,艾伦·图灵对他之前的人类的已有探索成果具有深入详细的了解,并能跳出局限之外,给出富有深刻洞察力的见解。艾伦·图灵是具有历史思维的人。
注意,巴贝奇分析机的英文全称是Babbage's Analytical Engine,Engine有引擎、发动机的意思。
阿达·洛芙莱斯(Ada Lovelace)是著名英国诗人拜伦之女,数学家。
文献的标题是“译者关于巴贝奇分析机的一篇文章的注记”。1840年,巴贝奇被邀请在意大利演讲分析机,台下听众中有个叫路易吉·梅纳布雷亚(Luigi Menabrea)的人(此人后来担任了意大利的总理)把巴贝奇的演讲用法文做了记录,取名《分析机概论》。
这份法文笔记传到了阿达·洛芙莱斯手上,于是她就着手开始将其翻译成英文,此外她还对论文做了详尽的注释,长度将近原论文的三倍,这些注释给出了一个比巴贝奇以往提出的观点更具普遍性和前瞻性的未来设想。按照阿达·洛芙莱斯这些注释的说法,这台机器不仅仅执行计算,它还执行运算(operation),即“任何改变了两种或多种事物之间相互关系的过程”,因而“这是一个最普遍的定义,涵盖了宇宙间的一切主题”。
阿达·洛芙莱斯还设想这台机器能够计算出无穷数列——伯努利数,并专门为此设计了一个程序,这是世界上诞生的第一个程序,因而阿达·洛芙莱斯被称为计算机程序创始人,建立了循环和子程序概念。她为计算程序拟定“算法”,制作了第一份“程序设计流程图”,被公认为人类第一位程序员,也是人类第一位女程序员。
1843年阿达·洛芙莱斯将论文译稿交给了巴贝奇,巴贝奇看后给出了热情的回应,并鼓励她进行更多的研究与合作。由于阿达·洛芙莱斯在19岁时嫁给了贵族威廉·金,并在婚后几年内生育了三个孩子,平时除了管理家族事务,还要忙于上流阶层的各种应酬,所以贵为伯爵夫人的阿达·洛芙莱斯还能有这样的成就更是令人钦佩。
1852年,年仅36岁的阿达·洛芙莱斯因病去世,按照她的遗愿她被葬在诺丁汉郡其父亲墓旁。巴贝奇分析机被公认为是最早期的计算机雏形,而阿达·洛芙莱斯的算法则被认为是最早的计算机程序和软件。
为了纪念阿达·洛芙莱斯对现代计算机与软件工程所产生的重大影响,美国国防部将耗费巨资、历时近20年研制成功的高级程序语言命名为Ada语言,它是第四代计算机语言的主要代表。
在这点上我完全同意哈特里的看法。值得注意的是,他并没有断言当时的机器不具备这个特点,而是指出洛芙莱斯夫人所能获得的证明还不足以使她相信这些机器已具备了这个特点。从某种意义上讲,这些机器很有可能已具备了这个特点,因为,我们设想某些离散机器有这个特点,分析机实际上是一台通用数字计算机,因此如果它的存储能力和速度达到一定程度,就能通过适当的编程模仿我们讨论的机器,也许伯爵夫人或巴贝奇都没有想到这一点。无论如何,他们没有义务陈述所有能陈述的事物。
整个问题将在1.7节再次考虑。
洛芙莱斯夫人的异议还有另外一种说法,即机器“永远不能创新”,这种说法可以用谚语“太阳底下无新事”抵挡一阵。谁能保证,他的“独创性工作”不是通过教育让身上的种子成长的结果,或者不是遵循著名的普遍原则的结果?此异议还有另一个稍好的说法,即机器永远也不能“让我们吃惊”,这种说法是一个可以直接回应的更直接的挑战。机器经常令我吃惊,这主要是由于我对机器能做什么估算不足,更确切地说,是由于即使我做了估算,也匆忙粗糙。我也许这样对自己说:“我认为此处的电压应与彼处相同:不管怎样,就假设一样吧。”自然我经常出错,结果让我大吃一惊,因为在实验完成时,这些假设已经被遗忘了。我坦诚面对自己这样的错误,我证实了所经历的吃惊,但人们并未失信于我。
我的回答并不会使批评者就此缄口沉默,他也许会这样认为,所谓吃惊都是因为我自己富于想象力的心理活动,与机器本身毫不相干。这样,我们又重新回到来自意识的那个论证上去,而背离了吃惊不吃惊的话题。我们不得不认为这种论证方式是封闭式的,但是,也许值得一提的是,要将某事物认作令人吃惊,则需要许多“富于想象力的心理活动”,不管这件令人吃惊的事件是由一个人、一本书、一台机器还是其他任何东西引起的。
我相信,那种认为机器不会令人吃惊的观点,是哲学家和数学家特别关注的一个谬误。它是这样一个假设,即心灵一旦接受了某个事实,由此事实所引起的一切后果都会同时涌入心灵。在许多情况下,这种假设十分有用,但人们太容易忘了这是个错误的假设,如果照这样做的话,其必然结果就是认为仅仅从数据和普遍原则得出结论会毫无效力可言。
1.6.7 来自神经系统连续性的异议
神经系统肯定不是一台离散状态机,关于撞击神经元的神经脉冲大小的信息的一个小的偏差,就可能导致输出脉冲大小的很大差别。既然如此,或许就可以说:不能期望用一个离散状态系统去模仿神经系统的行为。
上面是待批驳的观点。
离散状态机肯定与连续机器有差异。但是如果我们遵循模仿游戏的条件,提问者就无法利用这种差异。如果我们考察其他一些更简单的连续机器,情况会变得更清楚。一台差分分析机(differential analyser)就足以胜任了(差分分析机是一种用来进行某种计算的非离散状态类型的机器)。有些差分分析机能打出答案,所以可以参加模仿游戏。一台数字计算机不可能确切地预测差分分析机对一个问题究竟做何答复,但它却能给出正确的回答。比如,如果你要它回答π的值是多少(实际上约等于3.1416),它就会在3.12、3.13、3.14、3.15、3.16之间做随机选择,(比方说)其选择概率依次分别为0.05、0.15、0.55、0.19、0.06。这样的话,提问者就很难分辨差分分析机与数字计算机。
数学家华罗庚先生曾经指出“离散”与“连续”是数学需要研究的六对基本矛盾之一。但是图灵指出,就是否能够思考而言,机器是离散的还是连续的,并没有本质的区别。比较本书第1、2两章,可以发现一个共同特点,图灵特别能抓住本质,经过仔细的论证和甄别,将非本质的变量或因素一个一个剔除,只留下最本质的最简单的因素。
1.6.8 来自行为非正式性的异议
不可能制定一套旨在描述一个人在每种情况该做什么的规则。比方说,可能有这样一条规则:行人见到红灯止步,见到绿灯行走,但是,如果由于某种错误红绿灯同时亮了,该怎么办?我们也许会这样决定,为安全起见最好止步,但稍后这个决定还会带来一些进一步的困难。试图制定一套考虑到各种可能性的行为规则,甚至是那些由红绿灯引起的可能性,似乎都是不可能的。对此我完全同意。
由此,有人认为我们不能成为机器。我会尽力重现此论证,但我担心很难做到公正。似乎可以这么说:“如果每个人都有一套行为规则来调控其生活,那么他与机器就相差无几了。但不存在这样的规则,因此人不能成为机器。”这里不周延的中项(undistributed middle)显而易见,我认为没人这样论证过,但实际上用的就是这样的论证。然而,“行为规则”(rules of conduct)和“行为规律”(laws of behaviour)之间可能存在一定的混淆,所谓“行为规则”是指诸如“见到红灯止步”这样的规则,你能采取行动,并意识到;而所谓“行为规律”则是指用于人体的自然法则,例如“如果你捏他,他会叫”。如果我们在引用的论据中用“规范他的生活的行为规律”来替代“规定他的生活的行为规则”,那么,这个论证中的不周延的中项就不再是不可克服的了。因为我们认为,受行为规律调控意味着人就是某种机器(尽管不一定是离散状态机),而且反过来说,这样的机器意味着受这样规律调控。然而,我们很难轻易地说服自己,不存在完备行为规律,就像不存在完备行为规则一样。我们知道,找到这些规律的唯一方法是科学观察,而在任何情况下都不能说“我们已充分寻找过了,不存在这样的规律”。
艾伦·图灵在这一段中所说的“不周延的中项”是什么意思?
我们发现艾伦·图灵在原文中其实犯了一个错误,发生不周延的不是中项,而是大项。
这里我们介绍一下什么是三段论。三段论是由亚里士多德(Aristotle,公元前384~前322)创建的。亚里士多德是古希腊人,世界古代史上伟大的哲学家、科学家和教育家之一,堪称希腊哲学的集大成者,他是柏拉图的学生。
三段论的形式结构为:M-P(大前提),S-M(小前提),S-P(结论)。
三段论中,在两个前提中出现而在结论中不出现的共同项叫作中项,结论的主项叫作小项,结论的谓项叫作大项。大前提中包含大项和中项,小前提中包含小项和中项,结论由小项和大项构成。
在三段论前提中,两次出现的概念称为中项(或中词),以M表示。中项作为小项和大项的中介,把两者联系起来,从而推出结论。例如,在三段论“科学是学问(大前提),物理是科学(小前提),所以物理是学问(结论)”中,“学问”就是大项(P),“科学”是中项(M),“物理”是小项(S)。这里大、中、小如何理解?
如下图所示,大项、中项、小项依次对应三个不同的圈,大项对应最大的圈,小项对应最小的圈,中项对应中间的圈。从集合论的观点看,中项是大项的子集,小项是中项的子集,所以小项是大项的子集。
三段论的推理规则:
(1)一个正确的三段论有且只有三个不同的项。
(2)三段论的中项至少要周延一次。
(3)在前提中不周延的词项,在结论中不得周延。
(4)两个否定前提推不出结论。
(5)前提有一个是否定的,其结论必是否定的;若结论是否定的,则前提必有一个是否定的。
(6)两个特称前提推不出结论。
(7)前提中有一个是特称的,结论必须也是特称的。
词项的周延性是指对直言命题的主项或谓项的外延的断定情况。在直言命题中,如果直接或间接地断定了主项或谓项的全部外延,我们就说主项或谓项是周延的,反之则不周延。
词项的周延性是由直言命题的联项和量项来决定的。具体来说,主项的周延性由量项来决定,量项是全称的,则主项周延,量项是特称的,则主项不周延。谓项的周延性由联项来决定,联项是否定的,则谓项周延,联项是肯定的,则谓项不周延。
联项分为肯定和否定两种。肯定一般用“是”表示,否定一般用“不是”“没”等否定词表示。“是”在有些命题中可以省略。
量项有全称量词、特称量词和单称量词三种。全称量词一般用“所有”“每一个”“凡”等表示,特称量词一般用“有”“有些”表示,单称量词一般用“某个”表示。
例如:“有的鸟不会飞”中的主项“鸟”的周延性是由量项决定的,“有的”是特称,所以主项不周延;而谓项“会飞”的周延性是由联项决定的,“不”是否定的,所以谓项是周延的。
判断“项是否周延”的规则如下:
(a)全称或单称判断的主项都周延。(单称判断的主项只包含一个个体,所以必定是周延的。)
(b)特称判断的主项都不周延。
(c)肯定判断的谓项都不周延。
(d)否定判断的谓项都周延。
我们对原文这句话“如果每个人都有一套行动规则来调控其生活,那么他与机器就相差无几了。但(人)没有这样的规则,因此人不能成为机器。”进行分析。
“如果一个人有一套行为规则来调控其生活,那么他是机器”是大前提,“(人)没有这样的规则”是小前提,“人不是机器”是结论。这个逻辑是不成立的。
设“一个人有一套行为规则来调控其生活”为A,“他是机器”为B,上面的逻辑是(A→B)Λ(¬A)→¬B,显然,这个逻辑是错误的。但是,错误不是因为“中项不周延”,而是“大项不周延”。
S是“人”,M是“存在规则的事物”,P是“机器”。现在三段论是:M是P(大前提),S不是M(小前提),S不是P(结论)。
分析小项S:在小前提中,小项S是全称判断的主项,所以是周延的。在结论中,小项S也是全称判断的主项,所以也是周延的。
分析中项M:在大前提中,中项M是全称判断的主项,所以是周延的。在小前提中,中项M是否定判断的谓项,所以也是周延的。所以,中项是周延的(而且是周延了两次,绰绰有余了,因为规则(2)指出“三段论的中项至少要周延一次”即可)。
分析大项P:在大前提中,大项P是肯定判断的谓项,所以是不周延的。在结论中,大项P是否定判断的谓项,所以是周延的。根据规则(3),“在前提中不周延的词项,在结论中不得周延”,所以发生了“大项不周延”。
这样就不能判断小项与大项之间的关系,因为可能存在以下关系:第一种情况,人是机器;第二种情况,部分人是机器;第三种情况,没有人是机器。
第一种情况
第二种情况
第三种情况
我们可以更有力地证明这种说法不合理。假定存在这种规律,我们肯定能够找到。然后给定一个离散状态机,应该有可能通过观察找到规律,预测其未来行为,在合理的时间内,比如说一千年。但似乎并非如此,我在曼彻斯特机上安装了一个只有1000个存储单元的小程序,其中配备有一个十六位数字在两秒钟内做出回答。我敢说任何人都无法从这些回答中了解这个程序的足够信息,从而能够预测对未试值的任何回答。
1.6.9 来自超感官知觉的异议
我假设读者熟悉超感官知觉(Extra-Sensor Perception,ESP)的概念,其四种方式为:心灵感应(telepathy)、千里眼(clairvoyance)、先知(precognition)和心灵致动(psychokinesis)。这些令人不安的现象似乎否认了一般的科学观念。我们多么想抹黑它们!不幸的是,统计证据至少对心灵感应是压倒性支持的。人们很难重新调整自己已有的观念以接受这些新事物,一个人一旦接受了这些事物,就离相信鬼魂不远了。走向此方向的第一步是,相信我们的身体除了按照已知的物理学规律运作外,还按照尚未发现的但有些相似的其他规律运作。
图灵对超感官知觉这个话题,采取了大胆的、直接面对的方式,没有避而不谈。这是一种极其宝贵的、真正的科学精神。除了图灵,我国科学家钱学森、朱清时等也曾思考过这方面的问题。我们的一些刊物或项目往往有一些“范式”,符合范式的就受欢迎,反之受排斥。范式一方面提供了一种标准化、程式化,另一方面限制甚至扼杀了那些突破性的想法。
在我看来这是一个十分有力的论点。一个人可以这样回答,许多科学理论尽管同超感官知觉有冲突,但实际上还是可行的;事实上,人若是对这些现象置之不理,依然能活得很好。这是一种甚为冷漠的安慰,人害怕思维与超感官知觉现象可能有特殊的关系。
基于超感官知觉的更具体的论证大致如下:“让我们来玩模仿游戏,让一个善于接受心灵感应的人和一台数字计算机参加。提问者可以问‘我右手中的那张牌是哪个花色?'这样的问题。具有心灵感应或千里眼的人在400张牌中可以答对130张,而机器只能随机猜测,可能答对约104张,因此提问者就能正确地判断了。”这里开启了一个有趣的可能性。假使这台数字计算机有一个随机数生成器,那么,我们就会很自然地用它来决定给出什么回答。但是,这个随机数生成器又受提问者的心灵致动能力的影响,这个心灵致动或许就能让计算机猜对的次数比概率计算高,于是提问者就无法做出正确的判断。而另一方面,提问者也能通过千里眼,不用提问就猜对。有了超感官知觉,什么样的事都会发生。
扑克有四种花色,分别为黑桃(Spade)、红桃(Heart)、方块(Diamond)、梅花(Club),它们的数量是相同的,所以随机猜测正确的概率为1/4,也就是说,400张牌,能答对100张左右。
上面的论证还可以换一种方式:具有心灵感应或千里眼的人在400张牌中可以答对130张,但可以故意答错一些,最终答对100张左右,而机器只能随机猜测,可能答对约104张,因此提问者无法做出正确的判断,于是数字计算机就通过图灵测试了。
如果允许心灵感应介入模仿游戏,我们就有必要严格规定测试方式。此情景就好比在模仿游戏中,提问者在自言自语,参赛者正贴墙侧耳倾听。要是将参赛者置入一间“防心灵感应室”,就能满足所有要求。
艾伦·图灵具有非凡的思考力,能列举9个方面的对立观点,然后简明扼要地进行有力的批驳。那么能否列举第10、11乃至更多方面的对立观点呢?这是值得我们现在和未来去思考的问题。