序言
理解生成式AI:一种新质内容生产力
一、引言:作为新质内容生产力的生成式AI
2022年11月30日,美国人工智能公司OpenAI推出新型人工智能产品——ChatGPT,标志着生成式AI(Generative Artificial Intelligence,GAI)作为近年来最具革命性和颠覆性的技术之一,正式进入公众视野。该技术以其卓越的能力——从现有数据中学习并生成全新的内容,正逐步重塑我们对生产力的传统认知,并在信息化、数字化、智能化时代成为新质内容生产力的典范——不仅极大地拓展了内容生产的边界,还为艺术创作、产品设计、科学研究等多个领域注入了前所未有的创新活力和无限可能。
在当前对生成式AI的讨论中,焦点主要集中在该技术对信息生态、内容系统、人机交互网络,以及算法治理的革新性影响上(见图0-1)。各种观点交织,形成了一个多元化的讨论场域。例如,“乐观论”的观点认为,生成式AI作为新质内容生产力的代表,将极大地丰富人类的社会生活,推动经济和社会的快速发展;“悲观论”的观点则认为,我们需要警惕生成式AI可能带来的潜在风险,如信息过载、误导性内容的产生、对人类工作的替代等;此外,还有一些“泡沫论”的观点强调,尽管生成式AI的前景广阔,但其目前尚处于未成熟的发展阶段,距离成为推动社会进步的新质内容生产力还有很长的路,因此在推广应用生成式AI之前,需要充分考虑其社会适应、伦理道德、监管框架等现实问题。综上,生成式AI作为新质内容生产力的代表,其对社会的多维影响要求我们进行全面而深入的考量。在积极推动技术进步的同时,我们必须对潜在的挑战保持警觉,并采取适当的预防和应对措施。这样,生成式AI才能在促进社会进步的同时,发挥其积极的正面作用。
图0-1 当前生成式AI研究的词云图
为深入讨论“生成式AI作为一种新质内容生产力”这一议题,我们首先需要建立对生成式AI的基本理解,包括技术原理、可能带来的广泛影响等。达成一个基础性的认知共识是进一步探讨的前提,本序言旨在提供对这些问题的初步阐释,尝试为读者构建一个关于生成式AI的基础性认识框架。
二、生成式AI的技术原理
技术如何模拟人类的认知与思考活动,是理解人工智能技术原理的基本认识落点。
生成式AI这个概念源自国外自然科学学者,指基于算法、模型、规则,在没有人直接参与的情况下生成图文、音视频、代码等内容的技术,包括生成式对抗网络(GAN)、生成式预训练转换器(GPT)、生成扩散模型(GDM)等技术形式。ChatGPT就是基于生成式预训练转换器这种具体的技术形式所实现的技术产品,所谓大语言模型(Large Language Model,LLM)是GPT技术的一种具体模型。生成式预训练转换器、大语言模型是囊括在生成式AI之下的下位概念。
生成式AI的技术过程被一些学者形象地概括为“四板斧”:文字接龙、给予引导、标注反馈和强化学习。这一过程揭示了生成式AI的核心运作机制:基于给定输入,通过概率计算预测并生成可能的文本或内容,然后利用人类标注的反馈数据进行训练和优化。由此可见,概率计算生成与实时标注训练两大技术特性共同构成生成式AI独特的运作模式——与判别式AI的演绎式规则输入不同,生成式AI侧重于通过预测不同元素间的概率分布来实现认知模拟,这依赖于数据的相关性和概率性,而非因果性。
对于生成式AI能否复现人类智能这一问题,学界存在两种主流观点。一种是相对乐观的认识,即认为生成式AI是已然逼近能够模拟人类真实智能的强人工智能。这种论断源自人工智能流派的联结主义(Connectionism),他们认为人类智能即“学习”智能,是从不断积累的经验中归纳出一般原则的学习过程。生成式AI基于大数据集进行表征的学习过程与人通过表征来把握对象的学习过程很相似,因此该观点肯定了生成式AI对“学习”智能的模拟复刻,并认为这赋予了生成式AI与人类共享的行动者主体地位。另一种是相对悲观的认识,即认为生成式AI与强人工智能的差距仍巨大,无法实现全部人类智能。这种论断源自人工智能流派中的符号主义(Symbolicism)和行动主义(Actionism)。他们认为,人类智能并不是学习过程,而是推理过程或行为反应,要想让机器拥有人类智能,还需要采用各种各样的符号将信息和规则传授给机器,或通过具身认知的方式让机器能够根据外界环境的变化及时做出相应行为。
综上,尽管生成式AI在模拟“学习”智能方面取得了进展,但它目前还无法达到强人工智能的标准,这是因为生成式AI主要基于机器语言的概率计算和转译,缺乏自主的辨认和控制能力,也不具备自然人的具身行动性和意志主体性,因此其本质上仍是一种工具。
三、生成式AI的社会意义
若仍在技术逻辑的框架下理解生成式AI,我们可能会局限于人机之间的能力比较,从而忽略这项技术更深层次的社会意义和影响。我们必须看到,生成式AI释放的巨大潜力并非单纯来自于其对判别式AI技术原理的革新,更在于其作为新质内容生产力对整个内容生产和分发系统所带来的根本性变革。因此,这项技术的社会意义的本质在于,它是一项能够实现人类传播理性要素与非理性要素交织的新质内容生产力。
新质生产力概念,是习近平总书记在科学研判中国社会矛盾、发展阶段和发展动力的基础上得出的重大理论标识性概念,对当代中国的发展方式、发展动力具有重要指引意义。生成式AI作为一项新质内容生产力,主要体现在它从“新”和“质”两个层面对传统内容生产力进行了革新。
所谓“新”,是指生成式AI不同于传统内容生产力,它实现了内容领域的关键性技术突破。回顾历史,我们可以观察到内容产业经历了三个不同的生产力时代,正如罗雪尔所阐述:劳动生产力时代、资本生产力时代以及科技生产力时代。在劳动生产力时代,内容的创造和传播主要依靠个体的手工劳作,依赖于民间那些“讲故事的人”和“采风者”来记录、分享;随着印刷技术的兴起,内容产业进入以资本为主的生产力时代,专业的新闻机构和企业成为产业的主导者,内容渠道等资本的积累和集中也推动了现代大众传播的发展;进入现代社会,科技生产力成为推动经济和社会进步的主要动力,高科技和高效率的人工智能技术为内容产业带来了新的生产力。例如,生成式AI的出现极大地促进了高质量的人机协作内容创造,该技术将内容生产与分发剥离成体力劳动与脑力劳动两个维度,将重复性的编辑和校对任务交给了机器,将需要人类创造力(包括观察能力、思维能力、想象能力等)的任务重新交还给人类,从而最大限度地发挥了人类的智慧。与传统的以人为主的内容生产方式相比,生成式AI开启了人机协作的新可能,也促使内容创作者从侧重体力和技能的角色转变为更加注重知识和创新导向的角色。
所谓“质”,强调的是生成式AI能通过关键性技术的突破,与现有的劳动者、劳动资料和劳动对象结合,孕育出一种新的、更为强劲的创新驱动力。生成式AI给内容产业带来了创新驱动力—能够促成以机器智能为代表的传播理性要素和以人类智能为代表的传播非理性要素的交织融合,从而推动内容业态的整体演化和升级。具体来说,传统的判别式AI依赖人类输入简单的线性计算模型来执行任务,它需要先从训练数据中提取解决问题的模型,再应用这一模型对新的对象进行识别,遵循从基础模型到微观对象的对应逻辑。传统的判别式AI一旦构建了解决问题的基础模型,便脱离了人类的直接介入,除非采用新数据重新训练其基础模型。因此,判别式AI主要是基于技术计算逻辑建立的,只有清晰指示的理性要素能被机器捕捉并集成入模型。生成式AI则采取不同的路径,它在人类逐步向机器描述微观对象特征的过程中进行自我调整,最终形成完成任务的计算模型,这是从微观对象到基础模型的逻辑。生成式AI的操作必须建立在与人类的持续互动、“标注”“微调”之上,人们可以通过精细化的指令不断影响技术模型。在这个过程中,人类关系、情感等非理性要素会在人机交互过程中被卷入计算模型中,传统被认为无法被机器识别的、模糊的关系和情感因素都会在人类的标注反馈与机器的适应学习中被技术所内化,并表现在其生成内容中。正因如此,我们可以在ChatGPT生成的文本中感受到“情商”与“情感张力”。从该角度来说,生成式AI是一种融合了人类非理性与机器理性逻辑的新型内容生产力,它不仅拓展了人类的理性思维,也延伸了人类的情感联系。通过概率计算的技术逻辑和用户反馈中的人类情感逻辑,生成式AI使得所有传播的理性与非理性要素在海量数据和强大算力的支持下自然“涌现”,实现了内容生产力从量变到质变的跃升。
四、生成式AI赋能的内容产业新质态
新质态不仅标志着一种全新的发展状态或形式,更是新质内容生产力的影响力的核心所在。生成式AI赋能的内容产业质态嬗变,集中体现在两个方面:一是发挥了机器智能在内容产业中的“替代”作用;二是发挥了机器智能在内容产业中的“增强”作用。
(一)生成式AI对内容产业的智能“替代”
当生成式AI通过与人类共享的行动者主体身份融入复杂系统中时,它将以智能“替代”的方式发挥作用,替代人类智能,自主完成工作。
第一,替代人类智能完成简单性的内容生产思维活动。一方面,思维活动将从人类独有的实践活动变成人机共同协作的活动,从前保留在个人大脑内的思考活动和人内交往活动可能经由生成式AI的互动性而外化出来。当个人习惯了与生成式AI互动交往后,人的大脑可能会不得不服从智能机器大脑而成为生成式AI的配合者。人脑会仿照生成式AI展开活动,而生成式AI则会侵入人体,替代人体执行决策,使人类思维模糊。另一方面,身体交往也会被所谓“精神交往”替代。这是因为生成式AI等技术的使用不会受到身体制约,也不存在因身体缺陷而导致的“遗憾”,由此生成的传播关系能更加靠近理想状态下的精神交往。人类与生成式AI在交互之前就会拥有一套无主体、共享的原初经验,它们共处于同一系统与机制之中,当两者身体达到一种耦合状态时,人类与生成式AI之间的他心感知就成为可能。由此,数字生命、机器生命与生物生命(即人体)的对话将得到充分实现,“跨生命交往”成为可能。
第二,替代重复性的内容生产环节,包括模板性的内容创作、内容校对等环节。正如韦德所提出的,在ChatGPT促逼信息传播领域变革的众多路径中,影响最大的将是其创建初稿的能力。当生成式AI取代了大量低端的信息传播和重复性的内容生产工作时,职业内容生产者的生产活动也将向理性、深度、独创的方向深入推进。有学者也将生成式AI对内容生产的替代活动看作一种社会资源的再分配途径,生成式AI对内容流程的变革本质上是对内容生产资源的重新分配,传统由人类要素绝对把持的生产环节首次有了非人类要素(生成式AI)的深度介入,并与人类平起平坐,进而突破了人类知识的生产格局。基于人类非理性逻辑所组织的“人类语言”成为一种“数码物”和基础设施,并经由生成式AI表现出来。在这种理性要素与非理性要素碰撞交织的内容范式下,生成式AI或成为人类语言的外化物,成为一个重新型构社会秩序的行动者,冲击社会对新闻、真相、时效、专业等内容概念的共识。
第三,替代既有的社会传播秩序。生成式AI对系统中人类主体活动的“替代”意味着系统中人机的“资源”(Resource)与“位置”(Site)均发生了改变,这会带来社会秩序的变革,传统精英宰制的社会治理逻辑得以被打破并迈入“常人政治”的未来新社会。例如,由于未来分工结构的转变,人机混合工作的新职业结构与社会分工将成为常态,与生成式AI互补的提示工程师这种职业正在兴起,他们通过对用户需求的洞察和整合,在对大语言模型进行逻辑解析的基础上反向调控大语言模型,进而输出更高效的模型能力调用方案,提升用户服务效率。同时,生成式AI还可以打破大众与精英在信息获取能力上的分工对立局面。从古到今,人类社会的政治、经济、文化大都是精英主导型的,生成式AI对于人类社会的最大改变就在于其极大地增强了人类的平等性,缩小了人与人之间的能力差距,打破了精英和普通大众之间的壁垒,突破了人与人在认知把握和资源使用上的天赋异禀及后天能力方面存在巨大差距的局限,使每个人至少在理论和技术层面可以以一种社会平均线水平的语义表达及资源动员能力进行社会性的内容生产、传播对话及其相关的一切社会实践活动。这将在很大程度上改写精英社会的组织结构模式,真正以个人为行动者的去中心化、分布式社会结构进程将被极大推动。再如,由于社会关系模式的改变,生成式AI正以无界的方式全面融入人类实践领域(通用性)、以深度学习的方式不断为文本的生成注入“以人为本”的关系要素,进而提升文本表达的结构价值,最终作为自由插件进入人类实践全域并实现普及化,成为人类实践全域、全要素整合的推动者、设计者与运维者,成为深度媒介化社会的“操作系统”和基础设施。这将促使社会在“以人为本”的实践逻辑以及社会多元化价值追求的背景下,朝分布式结构演进。在生成式AI的价值连接下,去中心化自治组织(Decentralized Autonomous Organization,DAO)是这张“大网”上进一步剥离出的千态万状的“小网”,即在全要素连接的基础上,部分连接开始闭合成为彼此间隔的中小型关系网络,在这种网络中连接得到进一步升维,拥有了以复杂协作、价值生成为主要功能的趣缘强关系属性。
(二)生成式AI对内容产业的智能“增强”
当生成式AI作为智能辅助工具进入复杂系统中,它将通过智能“增强”的方式来辅助人类行动。
第一,对个人认知能力的增强。当生成式AI被用于辅助人类认知时,它可以通过技术赋能推动人类主体朝着创意密集型、想象密集型的智力增强主体进化。例如,生成式AI可以提高中低端脑力工作的效率,帮助人类处理大量重复性任务,减轻人类主体的智力劳动强度。例如,生成式AI可以承担一些初级智力劳动角色,包括文本制作人、语言编辑和研究助理等,与承担创意密集型智力劳动的人类主体互相配合,作为人类主体的辅助角色存在。此外,生成式AI可以赋能个人生产力,帮助大众跨越搜寻与获取信息的“能力沟”障碍,有效按照自己的意愿、想法激活和调动海量的外部资源,形成强大、丰富的社会表达和价值创造能力。这一技术明显增强了智能文本生成能力,使人们能够在短时间内获得极高的效率。生成式AI还可以释放个人创造力,助推个人向知识、智慧、创造密集型劳动发展,充分释放创新与想象潜能。当技术承担了人类的语言、知识、思考里的重复性工作之后,每个人都可以在更有盈余和闲暇的时空中激发出自身的潜能。
第二,对社会关键传播节点的能力的增强。随着社会层级被打破,生成式AI将处于不同层级的人类个体和组织拉到社会表达的同一平均线上,社会力量会因此被化约为扁平节点——个体和组织将会以一种“社会公约数”的身份进行交互与合作。由生成式AI带来的技术性化约可能导致一些技术寡头的出现,也就是说当生成式AI逐渐成为人类智能普遍的增强工具后,创造该技术的组织将成为社会结构中连接众多社会资源的核心节点,关系着社会结构的整体存续。这可能带来一些社会问题,如它可能导致资本和政治霸权。由于生成式AI的开发与应用是资本密集型行业,因此当它成为不可或缺的人类智能增强工具并逐步渗入人类认知方式与知识生产方式背后时,就可能改变财富分配状况。基辛格将这种霸权描述为理解世界的“第三种技术方式”——一种不可知的、显然无所不知的、能够改变现实的工具的到来,使认识世界的第三种方式有了出现的可能。领导权可能会集中在少数人和机构手中,他们控制着能够高质量综合现实的有限数量的机器的访问。另一方面,它还可能导致信息霸权,使信息传播权逐渐集中到少数信息巨头手中,技术使用方面的差异会进一步加剧因信息获取、使用所带来的收入和福利方面的差异,扩大全球数字鸿沟。这预示着未来社会管理需要注重对关键技术节点的引导规制。当节点所连接的社会资源越多时,该节点越关键。对这些关键性技术节点的治理不应也不能通过简单、机械的压制干预,因为在分布式网络社会中,每个节点的变化都会“牵一发而动全身”,更不用说是连接众多资源的关键技术节点。因此,治理应转变为结构引导,需要在理解整个复杂系统结构的基础上,遵从节点的适应性进化规律,通过系统环境的“引导”和“诱使”来推动技术节点改变自己的技术发展规划和功能规划,以符合人类社会的共同利益。
第三,对内容产业流动性和开放性的增强。不可否认,受制于技术缺陷,作为新技术进入内容网络中的生成式AI不可避免地会带来信息失序的问题。例如,由于数据集滞后和数据集错误,生成式AI可能造成更大规模的虚假信息,出现批量制造事实性错误信息的情况;同时,由于算法缺陷,生成式AI所催生的“人工智能幻觉”现象越多,它越可能“一本正经地胡说八道”,以一种令人信服但完全编造的方式来表达自己,制造幻觉性虚假;此外,若技术被挪用操纵,生成式AI还可能成为信息操纵的强大工具,虚假信息得以通过这一工具大规模复制并频繁运行。然而,我们必须辩证地看待这种内容噪声,因为它也预示着内容系统的流动性和开放性的增加。在涌现理论中,提升系统开放性和动态性,从而适当“熵增”,这是具有合理性的。要想实现系统自发涌现,必须给系统提供“涌现新质”(也即推动系统远离平衡态的新介质),它将作为触发因素使系统组成部分形成“化学反应”,产生涌现。生成式AI就是内容网络中的“涌现新质”,从该角度来看,它所带来的信息失序将不再是传统意义上的破坏性噪声,反而可能成为将内容网络从“死寂”状态激活为动态的新力量。它将成为解构传统内容权力的介质和一种丰富而巨大的创新性资源,通过新的运行法则来组织信息加工、传输和存储,进而保障内容网络的多样性共存。因而,如何看待生成式AI给内容网络带来的噪声现象也是一个重要命题,这需要学界和业界共同探究一种更具多样性和包容性的技术利用方式,在保障技术给既有系统结构注入解构性力量的基础上,也对其过度的“熵增”乱象予以明确。
四、生成式AI的治理方案
必须意识到,面对生成式AI等新质内容生产力,简单、机械的传统治理方式无法解决复杂系统的不确定性与复杂性,未来的治理核心在于转微入宏,关注系统整体结构与规则的治理。
(一)以宏观原则为指导的复杂性治理思路
传统的治理思路建立在机械控制论上,即“我指挥你动作”,所有决策都由统一的中央处理器来进行,各个系统组成部分没有自己的目的和能动性,因而信息传递的速度和准确性、过渡过程的稳定性、决策的有效性等成了系统治理的决定因素。因此,过去的治理总是显得事无巨细、“眉毛胡子一把抓”。然而,这种治理思路仅在传统社会系统中有效。面对生成式AI所带来的内容复杂巨系统,无限扩容的内容主体和自发涌现的内容网络都使得传统自上而下的机械控制论丧失了治理有效性。复杂系统中的多元治理主体具有自适应性和多重目的性,当不确定性发生时,它们能够自适应、自组织地应对混沌或挑战,彼此相互影响、相互作用,这也使得针对系统的治理行为及其结果难以预测,控制效果很有限。动态社会系统的存在表明,社会已不再具有某种一成不变的、客观的平衡状态,它将始终处于不同社会元素相互作用的动态演进过程中。简单来说,“上有政策下有对策”本就是复杂社会系统中不可避免的现象,社会治理无法期待通过固定的社会规制来限制主体能动性和社会系统演化。
显然,简单粗暴的治理虽然能够得表面之“效”,但其破坏性的成本和代价是极高的。因为数智互联网已然是全社会要素的关联之所,“牵一发而动全身”是对其治理所必须面对的现实状况。因此,治理者必须秉持“大道不直”的治理逻辑——两点之间画一条直线看似捷径,然而在社会操作中如江河行地的九曲十八弯才是其最有效的实现路径。我们在理念上要把互联网治理视为一种对复杂系统的治理,用生态级意义上的发展范式去处理,不能头痛医头,脚痛医脚,用一刀切和简单化的方式去解决问题。
其次,所谓复杂性范式其实就是一种建立在对于创新有容错空间基础之上的规范性的治理方式。要知道,数智互联网及其社会的媒介化进程是以创新为其基本发展条件和动力的,因此,对于创新自由度的保护成为复杂系统进化中不可或缺的必要条件。也就是说,治理的范式中要有容错空间,创新是需要一定的空间的。动辄得究是无法创新的,过于刚性的管理可能会对互联网与平台发展本身带来某种难以避免的重大损害。中国的历史经验里面就有类似的“前车之鉴”:秦朝作为非常强大的“大一统”帝国,却短时间崩塌,汉朝的统治者长期反思后得出了两句治理教训——“皇权不下县,县下皆自治”。他们认为秦朝统治严刑峻法,对社会的刚性化治理虽看起来极易贯彻中央意图,但问题恰恰出现在这里,不留容错空间的治理本身就容易引起社会的巨大不满。在汉朝统治者看来,社会治理必须要有一定的“不作为”空间,所以皇权只管大政方针在县这一级的落实,而县下的很多具体问题则依照乡规民约、宗法习惯等因地制宜、自由裁量。这既为整个社会运作保留了必要的容错空间,同时也极大地简省了中央政府的管理成本。这种治理思路在某种程度上也正是中国封建社会延续上千年发展的重要秘诀之一,对今天生态级意义上的互联网内容治理来说也具有重要的借鉴意义。
据此,如今的治理思路应逐渐过渡到抓大放小的路径上,通过宏观的结构与规则管理、过程管理来实现治理目的。我们不应简单地对一个表达要求过高,对网络的言论尺度和表达事实的标准尺度也应尽可能往下探,如此可以让更多的主体参与到社会信息彼此之间的汇冲、互动和交流过程中,从中找到社会最大公约数,找到社会的共识所在。从宏观层面认识、厘清生成式AI的伦理原则,将是治理生成式AI的基础一步。只有如此才能从复杂性治理范式的角度形成对该技术的底层治理框架。
(二)以道德伦理和算法伦理为主的治理原则
如上论及,生成式AI可作为智能主体或智能工具产生社会影响,因而生成式AI除了要遵循机器技术所应当遵循的算法伦理外,还需要遵循因行动者主体身份所带来的新道德伦理。
当考虑生成式AI的算法伦理时,即将其作为一种大语言模型看待,考虑其在技术设计层面的设计伦理,具体包括隐私性、公平性、透明性三个维度。隐私性,即生成式AI必须保证用户隐私,不应存在利用互联网数据原料进行预训练时窃取用户敏感数据的问题;公平性,即生成式AI必须保证数据公平性,不应存在算法原料数据偏见和歧视问题;透明性,即生成式AI应披露其算法运作机制,方便外部观察者纠偏。当考虑生成式AI的道德伦理原则时,即承认生成式AI在创作过程中的准道德能力,应将重点放在规定其权责边界上。乔姆斯基认为,如果总是用“服从人类命令”来为智能机器辩护,并将责任推卸给它的创造者,那么实际就是在否定ChatGPT表现出的道德冷漠,包括剽窃、冷漠和回避等。当技术能够自主完成任务时,就应当警惕“人类中心主义”,我们应尝试将技术视为“他者”,并赋予其一定的准道德能力。例如,需要承认与说明生成式AI在内容生产中的参与程度,同时生成式AI也必须对其使用的语料和拼凑式作品负责。
五、生成式AI的未来发展
(一)科林格里奇困境与智能试错方案
2023年3月29日,一封名为“暂停大型人工智能实验的公开信”(Pause Giant AI Experiments:An Open Letter)受到了舆论的广泛关注,千位科技顶级专家签名支持,随后GPT-5研发被叫停。这便是新技术发展过程中的科林格里奇困境(Collingridge Dilemma)。该概念是英国技术哲学家大卫·科林格里奇(David Collingridge)在《社会的技术管理》(The Social Control of Technology)中提出的,指当新技术刚出现,我们没法推断出它的社会效应,而等到真正的负面效应出现时,由于技术已经融入社会太深,又很难对其进行干预与改变。解决科林格里奇困境的最常见思路即所谓“预防原则”,也即,若不能确认一项技术对任何个人、集体甚至是已有的规则是安全的,就不该接受它,换句话说就是“可能有坏处就拒绝”。然而,这种做法无异于因噎废食,走向了阻碍社会发展的极端。
那么,该如何有效预防陷入这一困境?科技发展史上最为学术共同体认可的是“智能试错方案”(Intelligent Trial and Error)。该思路最早在《规模管理:大组织、大技术、大错误》一书中提出,其核心要点是在管理风险时要做到权力分散,在不断试错中了解风险,快速优化方案。2013年,耶鲁大学的科技研究者爱德华·伍德豪斯(Edward Woodhouse)对其做出了进一步延伸,将该思路用到技术发展过程中。他认为,要快速找到新技术的负面影响并加以控制,就应该让技术能更快地小规模试错,在用户反馈中找到它的短板与不足。只有这样,当技术真正面向大多数用户的时候,才不会突然暴露出巨大的短板,引发难以估量的危害。这也正是生成式AI应该步入的未来发展道路——不是给新技术的发展按下暂停键,而是在小规模试错中优化迭代,让其发展得更透明、更公开、更可控。因此,未来关于生成式AI的研究也有必要转入到具体情境中,关注其试错表现并提出可用的优化和迭代方案,这将对形成技术应用的直接方法论更为有益。
(二)理解具体情境中的生成式AI
生成式AI作为新质内容生产力想要发挥实际效用,至少还需要对具体情境下的以下议题展开深入探讨。第一,生成式AI下游应用层的探讨。下游应用层是生成式AI实际产生社会效应的具体场景,因而对下游应用层的场景要素、技术要素、人类智能要素的分析和探讨,将更有助于我们见微知著,理解生成式AI的直接效果和可能问题。例如,我们可以深入新闻编辑室内部,探究生成式AI在具体的新闻生产场景中的使用边界,这将更能帮助我们理解该技术对新闻流程的改造作用。第二,生成式AI在应用中的实际技术逻辑探讨。至今对生成式AI的技术逻辑剖析都是建立在技术发展的理想状态下,并未在应用中关照其实际的技术坐标,也即我们并不知道它在具体应用中究竟“新”在何处。探讨生成式AI的实际技术逻辑,将更有助于我们认识和理解新技术试错的表现。第三,生成式AI落地的社会建构因素探讨。要将技术落地到应用层,我们就不得不关注社会建构因素对其技术演进逻辑的“扭曲”。强调回到应用场景中研究新技术,也即需要打破技术建构的演进“神话”,重视建构技术应然状态的“社会风土”。因而,对生成式AI的实践影响、治理逻辑讨论,不应该仅基于技术的客观、必然的演进逻辑来展开,还应该看到历史环境的偶然因素及技术相关群体的开放创造力。对生成式AI的研究,不应只有应然状态的讨论,更应该有对其实然状态的探讨。