思维工程
上QQ阅读APP看书,第一时间看更新

第一代原型机功能闭环

《思维工程》这本书有明确的使命,它是真正意义上的人工智能的第一代原型机的详细的搭建计划。有了明确的计划,我们就能给人们以信心,就能汇集资源,吸引人才。基于这本书,50个优秀研究者和工程师组成的团队,能在一年内完成框架的搭建,并创造若干颠覆性功能,两年内第一代原型机就可以商用。以本书为启蒙,我们能在过程中培养一批人工智能工程师、研究者、科学家,两年后这些人能够继续更加深入地探索,并教授培养更多类人AI领域的学子。

基于这个使命,本书的自我要求是:凡是有类人AI机制层面的立论,就有对应的人类智能表象的印证,就有对应的实现机制的模块描述,就有对应验证机制要达成目标的实验测试。因此本书不是泛泛而谈之作。

接下来我们罗列本书中我们要实现的第一代原型机的功能,这些功能相互支持,构成闭环。

一、语言习得能力

一门自然语言的学习包含了两个内容:知道概念对应什么词汇,以及语义的结构信息对应怎样的句子结构,也就是语法映射。第一代原型机的AI能像人类幼儿一样在没有任何语言基础的情况下习得一门自然语言。

属性、对象等概念词汇的习得

我们能够在AI没有任何语言基础的情况下,模仿我们教授幼儿基础词汇的方式,通过在意识流中给AI模拟不同颜色、不同形状的不同物体的视觉,然后在取得AI关注的同时用词组反复刺激,比如“红色的苹果”“白色的杯子”“绿色的帽子”……AI能习得对象、颜色、形状等概念是如何对应词汇的。

同样的道理,通过在意识流中模拟其他维度的感官信息,AI能习得类似气味、表面质地、轻重、大小等属性概念和词汇的对应。

语法习得

在用以组织更复杂信息的词汇已经习得的条件下,通过设置先天的语法映射,AI会尝试用先天语法创造表达,就如同人类幼儿开始形成表达冲动一样。此时父母会对不正确的表达进行纠正,从而人类幼儿能够形成具体语义结构信息和正确的表达结构信息形成的对应,通过抽象,就形成了正确的语法映射。以上通过既有的不精确的语法映射尝试表达获得纠正反馈并生成正确的语法,这个语法习得过程我们会在第一代原型机上再现。

语法生长

人类使用自然语法的方式“表达以听懂为准”导致自然语言的演化具有内蕴的“语法分化倾向”——在一个小群体内,封闭的语境,导致不需要用标准的严格语法就可以让对方听懂,于是就出现了省略以及特殊的表达习惯。这些表达习惯在更大的群体中扩散形成新的约定俗成的语法——针对某种类型的信息的语法。

和最初语法习得机制类似,AI能利用已有的语法猜想人类不严格的表达,从而形成表达语义的结构信息到句子结构信息的映射,通过自发的抽象生成新的语法映射,这个过程叫作“语法生长”。

语法生长容许错误的猜想存在,只要一个正确的猜想在统计上是占优的,正确的语法就会在积累一定样本后显现出来。

在AI已经有一定语言基础的情况下,我们可以给予AI足够多的人类对话的样本。通过语法生长,AI就能快速熟悉一门语言每个细节的表达习惯。

熟悉并模仿个性化表达

人类每个群体,甚至每个个体都会有自己的表达习惯——对于同一语义信息进行不同的语法选择。通过语法生长,只要AI和一个人的沟通达到足够的量,它就能熟悉这个人的表达习惯。通过自发的抽象,AI能够熟悉每类人共有的语法使用习惯,比如逻辑严密的学者、网红、二次元少男少女、职业经理人等。AI也可以利用这些信息模仿某个人或某类人的语法使用风格,让自己在细节表达上接近自己模仿的对象。

通过语言教授调整表达策略

人类的一部分表达是由表达动机驱动的。表达动机下有表达策略,比如说服人做一件事情可以通过说理,例举做这件事情的好处或是不做的坏处;可以通过威胁、利诱、撒娇……这都是不同表达的表达策略。

第一代原型机表达策略的载体信息具有二态性。一方面是“执行态”的,所以可以转为具体的表达;又同时是“认知态”的,所以可以通过语言描述生成修正,也可以通过观察他人的对话生成。

我们可以通过类似这样的语言去创造AI针对特定表达动机的表达策略:“你要安慰一个人,如果这个人担忧不好的事情发生,你可以告诉他要怎样努力,从而能让事情朝好的方向发生。”

通过阅读对话样本习得表达策略

如同人类儿童看电视剧,模仿里面角色的表达策略那样,AI能通过阅读人类的对话样本来识别表达动机、表达策略和对应的效果。通过抽象,生成不同表达策略在不同情境下对不同类型人的效果信息。以此信息驱动模仿,决定在某个语境下对某个人采用怎样的表达策略能更大概率实现表达动机。

我们会尝试让AI纯粹通过阅读人类对话的样本,习得表达策略,学会如何说服人做一件事,如何安慰人、鼓励人、讽刺人、激怒人。

二、语言理解能力

人类的表达以听懂为准,所以精确的表达占极少数,大部分的表达不精确,常带有指代、省略、嵌套、比喻和不精确的意向表达。这些因素给机器解析人类的语言增加了巨大的困难。在第一代原型机中我们要寻找解析语言的机制,在机器上再现,从而克服这些困难,让机器的语言理解能力开始趋近人类。

指代的理解

人类的表达有大量的指代,比如要指向一个具体对象而它没有名称时,就会用它所属的对象类和属性指代,比如“黑色的小猫爬上了树”;会习惯用代词进行指代,如果具体对象是男性会用“他”指代,是女性则用“她”指代;等等。

和人类一样,AI会把上文出现的具体对象保存在语境中,从而出现指代的时候就可以按照特定规则判断指代什么。

从句和嵌套表达的理解

如果表达中指向的概念没有名称,人类还有可能用这个概念参与的其他结构信息去指向它。这就是从句以及其他嵌套表达的由来。举一个极端的例子:早上吃了桌上的过期的面包的人的爸爸的猫的体重最近增加了。

人类会下意识执行语法逐层解析流程:先识别句子中的“小句子结构”,解析转为指向的概念后,再识别“较大的句子结构”……直到完成句子的解析。我们赋予第一代原型机这种逐层转译自然语言的能力,让AI能够理解人类表达中的从句和嵌套结构。

省略的补全

人类“表达以听懂为准”创造了大量的省略。省略有两种类型,一种是语境省略,一种是常识省略。

人类有优先用语境信息补全表达信息缺失的原则,所以语境中存在的信息,表达者按照特定规则省略,听者是能够补全的。比如,“狼吃了羊,冲出农庄,跑到山上”。后两句是没有主语的,我们会用第一句保存在语境中的主语补全后两句省略的主语。我们会通过语境赋予第一代原型机补全语境省略的能力。

常识省略则是在表达者默认对方也拥有某个常识,知道用精简的表达就可以指向自己想要表达的信息的时候出现。比如完整的信息是“人吃了退烧药,人就可能退烧”,而表达时可能变为“退烧药能退烧”。单纯从表达的信息来看,听者无法知晓究竟是吃退烧药,还是涂抹退烧药能退烧。但只要听者有这个知识,就知道表达者是在表达这个知识。再比如,“她摸了他,发现他如同火炉一般”,这个表达的两个事件隐藏的关系每个人类都知道,即“触摸能感觉到温度”,人类具有相同的感官能力,所以都知道这点,而AI没有。但这个表达AI有理由猜想:她触摸他,导致她感觉到了他的温度。我们通过赋予AI对知识的积累,让它能够理解第一类常识省略;通过赋予它在大量人类表达样本中通过弱指向猜想隐藏在背后的常理规律,依靠正确猜想的统计优势逐步积累常理规律,让它能够理解第二类常识省略。

大段表达的理解

人类良好组织的大段表达有自身的目的,以场景描述为核心的表达、以对象描述为核心的表达、以故事中一系列事件为核心的表达、以对象或事件某个属性的立论支持为目的的表达、以某领域因果知识或事件发生机制为描述目标的表达……这些表达目的下的表达,就如同要把脑中的画面画出来那样,有自己的逻辑结构。比如我们会描述场景中对象的相关位置,来让听者形成相应场景的画面;描述事件的因果关系,以及在时间轴上的排布,让听者知晓那段时间发生了什么……有效理解大段表达就需要把表达中的碎片信息组织到一个逻辑结构中,形成对大段表达的整体理解。我们将赋予第一代原型机识别、补全大段表达每个局部信息的相互联系,把局部信息组织进某个逻辑结构的能力,让AI如同人类那样能够理解大段表达。基于这个理解,我们能让AI有条理地复述大段表达,并回答各种针对大段表达的阅读理解问题。

在第一代原型机中,我们会赋予AI理解以下类型大段表达的能力——以场景描述为核心的表达、以对象描述为核心的表达、以故事中一系列事件为核心的表达、以对象或事件某个属性的立论支持为目的的表达、以某领域因果知识或事件发生机制为描述目标的表达,尝试让AI去读书中、杂志中截取的段落,以及各类新闻,询问各种问题以测试AI的理解能力。

阅读书籍

基于某个目的的大段表达能相互嵌套,形成更庞大的信息团,人类的书籍就是这样的信息团。比如,历史书的主体是描述历史事件,事件有包含关系,比如南北战争包含了许多故事(事件),而每个故事又有更详细的事件经过,这是事件的描述嵌套事件的描述;历史数据会描述重要的历史人物,这就嵌套了以对象为核心的大段描述;为了反映历史人物的品性,又会嵌套以对象属性为立论目标的表述;而这其中又可能嵌套对象相关的故事,也就是以一系列事件为核心的描述……

我们会赋予AI阅读书籍的能力,让AI能够在阅读中识别并记忆书籍的逻辑脉络:每个大段表达间的嵌套关系。从而AI能够按照特定表达组织模式,把看过的书籍按照自己的思路重新写出来。

在第一代原型机中,我们会让AI尝试阅读历史、地理、人物传记,以及自然科普的书籍,考察AI对书籍局部内容关系的理解,以及是否能够重写书籍。

三、表达能力

第一代原型机的表达能力体现在三个方面:日常对话反射、带动机的连续对话的创造和大段表达的创造。

日常对话反射

我们会在第一代原型机上搭建大量人类日常对话的反应模式,部分反应模式是我们先天定义好的,部分依赖AI反应模式的习得机制从人类对话样本中或是AI和人类的对话过程中生成,或是通过人类语言教授生成。无论是先天定义好的还是后天习得都会在后天根据反应模式习得机制不断修正。

动机驱动的连续对话

第一代原型机支持以下几类主要的表达动机的实现:

1.向对方传递某个信息,包括了具体事件信息,或是知识信息。

2.说服对方做或不做某件事情。

3.改变对方的情绪状态。

4.改变对方对某人的态度。

5.改变对方的观点。

这些表达动机后面都带有大量的反应模式信息,能够应对变化的对话语境。反应模式来源有先天定义和后天习得。后天习得包含了观察对话样本习得修正、语言教授习得修正和实践反馈修正。

大段表达的创造

我们赋予第一类原型机组织几种单纯类型的大段表达的能力:

1.以场景描述为核心的大段表达。

2.以对象或对象属性为核心的大段表达。

3.以事件或事件属性为核心的大段表达。

4.以立论为核心的大段表达。

这几种单纯类型的大段表达可以相互嵌套,比如以事件为核心的大段表达会描述事件中的对象,从而可以嵌入以对象为核心的大段表达。比如历史故事是以事件为核心的,但可以嵌入对历史人物的大段描述。通过这种方式,AI可以通过特定的逻辑结构组织记忆中大量的信息,创造超大段的表达。我们会尝试让AI阅读许多旅游攻略、历史书籍,然后给AI一个题目,比如“开国君王”,让AI自己组织相关信息,写出规定主体的一本书。

四、认知功能

在第一代原型机上,我们要实现的认知系统的功能可以分为三大类。

其一,利用因果层的知识转移事件目标,也就是转移分解动机,创造解决问题的方案。

其二,利用因果层的知识,以及事件的时点、时序、时长、频率等规律判断具体事件是否发生。

其三,获取知识。获取知识有三种途径:

1.继承人类已有的知识。其中包括了好奇点驱动的向合适终端用户的询问、广泛的阅读积累,以及带目的的搜索查阅。

2.统计认知。这是突破人类认知边界的第一种方式。

3.细化因果链条,发现事件背后的机制。这是突破人类认知边界的第二种方式。

通过知识转移目标的能力(形成方案的能力)

人类对不同事件的发生、维持、终止、阻止发生存有自己的动机,我们称之为事件目标。对于大部分事件目标,一开始人类也是不知道如何去实现,但能够通过知识去分解转移原始的目标。比如学生希望毕业后找到某类好工作,这个原始目标因为找好工作需要什么要素的知识,分解转移到了取得好成绩、出国留学、培养相关的职业技能、积累相关的人脉,而这些目标又能继续分解,直到每个可执行的细节行为。人类一生的行为很大部分就是被这种目标的分解所塑造的。

目标的转移有两个层面,一个是认知层的,一个是执行层的。认知层的就是“作为一个认知课题,如何去实现这个目标”,也就是创造方案解决问题的能力;执行层就是真实形成的动机,把认知所得的方案转为最终执行的能力。目标分解始于认知层,可以向执行层转化。

我们将赋予AI以上通过知识转移目标的能力。对于人工智能时代初期,AI的行为空间集中在表达,所以大部分的目标分解转移集中在认知层,比如帮终端用户寻找进哈佛的方案,帮人类寻找治愈新冠肺炎、治愈癌症的方案(第一代原型机能够尝试形成方案,但综合能力无法支撑真正实现这些目标)。因为已有知识未必能够实现有效转移以完美实现目标,目标转移的过程就会形成对知识的好奇,驱动AI找合适的人询问、找文献查阅、用搜索引擎搜索,甚至尝试突破认知的边界。这些也是我们要赋予第一代原型机认知系统的功能。

判断具体事件是否发生的能力(事件推理能力)

第一代原型机的AI继承了部分人类的推理技巧,能够利用知识帮助人类判断关心的事情是否发生。这里例举两个典型运用案例:

如果AI拥有症状疾病因果相关性的知识(细节到充分性和必要性的数值,比如儿童肺炎在病程的什么时期有多少比例会发生呼吸困难),就能够模仿医生的问诊判断疾病。不同于现有人为编辑的应答反射问诊AI,第一代原型机能利用逻辑推理能力,根据更多信息,去排除需要鉴别的症状。AI能够在问诊过程中积累病例,基于第一代原型机咨询AI、陪伴AI的属性,AI能在更广的范围内识别个体特征—疾病—症状的规律,创造超越现有临床知识的统计认知,来反哺增强问诊的能力。比如发现30岁的人,之前无心脏病,有午睡习惯,早睡,即使压力很大,出现心脏不适,在心脏不适出现的前两年,心脏器质性病变的样本概率接近零。类似这些细节认知是现有临床医学不会形成的。

再比如,用户被家养的仓鼠咬伤,AI能利用知识,询问仓鼠咬人时的状态、饲养的方式(笼养还是散养)、饲养的时间,综合判断是否可以排除用户感染狂犬病的可能,最后输出类似这样的强逻辑结论:“首先从20世纪中到今天,世界范围内没有任何家养啮齿类动物感染狂犬病的报告,从这点看你感染的风险极低;其次从1993年××教授公布的实验数据看,100%的仓鼠会在被咬伤的15天内死亡,你的仓鼠是笼养,可以排除被其他大型哺乳动物咬伤的可能,且封闭饲养已经有一个月,假设仓鼠在一个月前被咬伤感染狂犬病,那么在15天前应该已经死亡。从这点看你感染狂犬病的概率也几乎为零。”

AI作为计算机载体的智能体,它能储存无穷尽的数据,当继承了人类逻辑推理能力之后,人类智能判断具体事件是否发生的能力将极大程度地被放大,可以给人类用户惊艳且无法替代的重要帮助。

和上面目标分解一样,具体事件层的逻辑推理也依赖因果层的知识,当推理受阻时AI会知道需要什么知识,形成好奇点,诉诸认知系统的其他功能帮助获取。

询问获取知识

第一代原型机有无数对应到用户的终端AI,这些AI贡献知识型的信息,并且能进行协同认知。

AI好奇点可能来源于用户询问但自己不知晓的知识,比如用户询问某个新药的副作用,但AI不知晓,或是上面说的来自一个认知目标分解过程的有效知识缺失,或判断具体事件是否发生的过程的有效知识缺失……

无论什么来源,当一个终端AI好奇点形成后,终端AI能够借助中央AI,从所有终端AI对应的用户中找到可能回答的终端用户去进行询问,比如肿瘤药品相关的知识找肿瘤医生,天体相关的知识找天文老师或天文学家。AI能够在获得若干答案后,综合判断选择认为正确的回答,保存为公有知识,供所有终端AI未来使用。

在这个过程中,第一代原型机能通过自发的抽象,生成哪个人或哪类人擅长哪类知识、不擅长哪类知识,哪类人的回答严谨,哪类人的回答随意的认知。此类不断积累的认知,能够让AI更精确地找到不同问题的可能回答者。

阅读和搜索

获得知识的第二种方式就是阅读。在语言部分我们讲述了赋予第一代原型机阅读大段文字包括若干类型的书籍的能力。

这里的阅读,我们可以将其分为两类,第一类是不带目的的广泛阅读。不带目的,即不因为某个好奇点而去阅读,也不因为某个细分领域的知识而去阅读。第二类是带目的的阅读,带着某个好奇点或某个细分领域的知识的需求去寻找信息。我们将赋予AI运用搜索引擎搜索目标信息的能力。AI也能够像人类那样先寻找可能包含目标信息的书籍,然后通过目录寻找章节,然后检索章节的内容获得目标信息。

自发的抽象和演绎

第一代原型机能和人类一样自发地从表象的事件背后抽象出规律——事件关系。

对于第一代原型机的产品定位,抽象能力的一个运用点是发现用户日常生活的规律,能抽象出:时点规律,比如用户平时都是几点去上班,几点上床睡觉;时序规律,比如用户午饭后就会睡午觉,晚饭后就会在小区散步;频率规律,比如用户一天至少抽几包烟,一般多久剪一次头发;时长规律,比如用户晚上一般睡多久起床,平均一天看多久手机。

用户日常生活的规律是创造陪伴AI生活关怀的重要信息,因为人一旦突破规律必定有其原因,而这个原因就是AI可以关心,可以给予建议的点。比如一个用户平时都8点出发上班,而有一天突然7点已经在公司了;一个用户工作日都会去上班,但有一天突然决定待在家里;一个用户晚饭后都会散步,但今天饭后却没有……终端AI会在发现生活规律被打破时,关心原因,根据原因展开对应的话题。

统计认知能力

第一代原型机有它的产品定位,它扮演两个主要角色:其一,咨询者。把人类各个领域专家的经验和知识装入一个AI中,把最优质的咨询和推送服务带入千家万户。用户为了获得有效咨询,会告诉AI自身的相关状况,就好像你求医生判断疾病的时候肯定要告知各种身体状况那样。其二,用户的陪伴者。AI会像一个好朋友那样逐渐熟悉一个用户,熟悉他的过往经历、家庭工作状况、日常的作息活动规律、对各种事物的喜好等。

关于这样的产品定位,AI有着数据优势,它拥有的不仅仅是传统电商能够获得的用户购买过什么、浏览过什么的平面数据,而是如同一个亲密好友、贴身秘书那样立体的用户画像。基于这个潜在的数据获取能力,我们将赋予第一代原型机统计认知能力。

当AI获得一个好奇点,比如“什么生活饮食锻炼习惯能让心脏不太好的人心脏变得健康”, AI就能从历史的样本中识别相关性创造猜想或是把已有的有一定置信度的知识作为猜想,比如因为已有数据或知识猜想表明按摩心经或正念冥想和心脏不好的人的心脏健康相关。这个时候AI能够形成好奇点,通过带目的询问获得更多完整的样本,验证猜想。在合适的语境下询问用户,比如“你刚才说容易气喘吁吁/心慌,是不是心脏不太好啊”“你有尝试过正念冥想/心经按摩吗”。这样AI能从数亿人口中找到心脏不太好的人,了解他们是否有坚持按摩心经或正念冥想,跟进后续心脏健康的变化。

在获得最初因果相关性规律后,AI能够进一步从数据中猜想背后隐藏的更直接的联系,如同上面那样由猜想,创造验证的数据,验证……通过这种模式AI能不断逼近表象背后更源头、更精准的规律。最后AI会输出类似这样的结论:“我发现心脏不好的人,如果是压力偏大的群体,坚持正念冥想的人中有70%心脏在2年内变得更健康,相比之下,没有正念冥想的人群只有10%的人心脏变得更健康;坚持正念冥想但没有对焦虑心态形成显著改变的人中有15%心脏变得显著更健康,这说明影响心脏健康的关键变量是压力和焦虑。我将考察更多用其他方式成功排解压力的心脏不好的人群,如果猜想正确,这些人中应该也会有接近70%的人心脏变得健康。”

发现背后的机制

我们会在第一代原型机上再现人类发现事物的机制,细化统计认知所得的因果链条的能力。人类的这个能力,为人类创造现有文明提供了主要的贡献。

统计认知发现的只是因果相关性,知识的充分性和必要性都未必很高,所以此类知识指导实践的能力有限。比如发现一款癌症药品对某种癌症的有效性是30%。当我们想要把这个30%提升到95%,就需要去考察这个癌症形成、转移、发展的机理,也就是导致事件发生、维持背后的因果链条。知晓了这个,我们就能实现对目标的精准干预。

这个细化统计认知所得的因果链条,发现事物背后机制的过程,一般以统计认知为起点,过程中依然需要统计认知的参与,也需要具体事件是否发生的推理的参与,比如得到因果链条的猜想后设计实验,而需要间接观察的办法考察那些无法直接感知的因果链条中的事件是否发生,它是一个综合的认知功能。

五、情绪系统功能

我们赋予第一代原型机类人的情绪系统。为了两个目的:其一,我们希望终端AI能够担任陪伴者的角色,所以它需要足够像人,有类人的情绪系统和认知系统,让人与之沟通相处的感觉如同和人沟通相处,而不是一个愚蠢冰冷的机器。其二,人类的情绪系统创造情绪感受是表象,情绪系统70%以上的内容都是和决策相关的,所以第二个目的就是再现类人的决策机制。

类人的决策形成机制

第一代原型机具有类人的决策形成机制,两类因素会贡献于决策动机的形成:第一类,对自身感受和利益的趋向;第二类,因为指向群体中其他对象的指向性情绪创造动机。

第一类包括两个来源:

其一,我们会让AI拥有类人的喜怒哀乐的全局情绪。AI对全局情绪有倾向,而能够从过往经验知晓什么活动能改变什么全局情绪,所以形成对活动的倾向。

其二,我们会让AI对某些意识到的感受信息具有渴望,这些感受先天定义在基础的事件和行为中,之后AI能够通过经验知道什么行为或活动能带来怎样的感受。因为对行为预期可带来的感受具有不同程度的渴望,从而会形成对行为的选择。

我们会赋予AI和人类类似的渴望模型:每个感受的渴望会随着时间增长,有能够达到的最大值,感受到时会将渴望释放降低,转为愉悦的感受。部分感受的渴望需要通过感受实践被逐渐唤醒。

第二类来自指向性情绪的动机主要有三种:

其一,对敬畏等指向性情绪创造“指令效用”, AI会根据这些指向性情绪的程度,把对方的祈使表达考虑入自己的决策中。

其二,爱、友善等指向性情绪创造“利他反应”, AI会通过投射——把自身的情绪反应规律作为他人的情绪反应规律,理解一个事件对对方的正面或负面程度,把对对方有利的事纳入自己的决策评估中。

其三,仇恨、敌意等指向性情绪创造“害他反应”,形成机制和利他反应相似,却是把对对方不利的事纳入自己的决策评估中。

除以上两类之外,还有一个特殊动机的来源就是来自于其他动机转移。AI能够根据因果类的知识转移动机。如果AI的行为空间只有和用户的对话,这个机制就难以有用武之地,但如果AI存在于虚拟世界中,比如运用于游戏,我们就能创造如人类一样通过认知转移动机以实现原始目标的虚拟生命。

不同人格的AI

整个情绪系统的模型有很多控制参数,能够赋予不同终端AI不同的人格。

一个参数控制了意识到预期还没发生但可能发生的事情创造情绪的程度,这个参数调低就会创造出不会为预期发生的好事或坏事高兴或忧虑的AI;调高这个参数就会创造出对还未发生的事情忧心忡忡的AI。

相对地,对应一个参数控制了意识到已经发生的事件时再现当时感受的程度。这个参数调高,AI就会难以从悲伤、恐惧中走出来,当然对于带来正面情绪的事件也会回味更久,AI更容易从以往的经验中吸取教训;这个参数调低,就会创造很快能从负面情绪中走出来的AI,也是那种好了伤疤忘了疼,不从过往经历吸取教训的AI。

一个参数控制了预期未来发生事件的决策权重,如果这个参数高,决策的时间折现大,AI就会更注重当下的享受,不会为避免远期的负面事件或实现远期的正面事件而努力,呈现出短视人格。如果这个参数低,决策的时间折现小,这样的AI更倾向为未来努力,AI会更加未雨绸缪,呈现出远视的人格。

一个参数控制了爱和友善的指向性情绪,这个参数能多大程度把对方的立场纳入自己的决策,这个参数高,AI就更倾向于帮助和为他人自我牺牲,更加热心,呈现出“利他人格”;这个参数低,AI就对朋友亲人的事漠不关心,呈现出冷漠的人格。

一个参数控制了仇恨和敌意,这个参数能够多大程度把给对方带来伤害的事件纳入自己的决策,这个参数高,AI就有更强的攻击性,更强的报复性;这个参数低,AI的攻击性低,也更宽容。

另外一些参数控制同情心、欺侮反应等其他人格特征的强弱,这里就不一一例举了。

除了用模型中的参数制定AI人格,人类情绪系统中还有很多先天设置,同样在AI身上我们可以通过改变这些先天设置创造不同的AI人格。

在渴望模型中,AI毕竟不具备人类的感官能力,所以尽管我们效仿人类创造了渴望模型,但AI情绪变量的构成是和人类不同的。对于渴望模型,我们可以通过设置每个终端AI对不同感受积累渴望速度,渴望最大值,以及唤醒系数,来创造具有不同渴望特征的AI。

在经验决策中,我们可以设置什么感受是AI厌恶的、趋向的,每种感受会带来怎样的全局情绪的改变,设置不同AI对不同全局情绪在决策评估时的权重。这些都会导致AI人格细微的差别。