黑镜与秩序:数智化风险社会下的人工智能伦理与治理
上QQ阅读APP看书,第一时间看更新

数据伦理:新石油时代的政治经济学

机器学习和大数据正在推动全球范围的科技和商业权力的转移。可以看到,2001年市值最高的公司都是通用、埃克森美孚之类的能源类企业,而到了2020年都是和大数据紧密关联的公司。这也难怪人们都说现在数据就是石油,数据就是货币。

第四次工业革命是以大数据为核心的,随之产生的物联网、人工智能、区块链等所有的技术变革都要依靠大数据的驱动才能实现。随着大数据的发展,大数据中蕴含的潜在价值不断得到开发。

作为数据经济时代的“石油”,具备大数据能力的国家相继实施大数据发展战略,推动生产和信息交流方式的变革,希望通过数据价值提升经济增长的质量。不过,不可忽视的是,在大数据价值得到不断开发和验证的过程中,大数据中的伦理问题也引发了非常大的关注,如数据垄断问题、数据隐私问题以及数据信息安全问题。如何规范和促进数据使用已成为发展人工智能的重要课题。

事实上,信息价值的开发依赖于大规模的原始数据的收集,现在互联网、移动通信、电商、社交平台和政府部门等都在收集海量数据。然而,哪些个人数据是允许收集的,哪些是不允许收集的,以及如何避免数据被滥用,在具体的实践操作中确实很难把握。本节将从经济学角度出发,通过讨论数据伦理的制度性构建以及数据伦理的哲学问题为读者建立一种思考框架。

数据信息的共享正处在一个不断趋于平衡的阶段。在大数据环境下,信息共享和融通是大数据信息价值开发的前提。没有信息共享,就会出现所谓“信息孤岛”的现象,信息的价值无法充分开发;与此同时,信息共享的滥用会使得数据被无序开发,从而引发相应的数据伦理争议。

先来看数据垄断与隐私保护相关的问题。以著名的“Facebook剑桥分析事件”为例,Facebook公司被爆出利益集团利用社交媒体平台数据操纵美国大选。人们在感到愤怒的同时,也意识到大数据对社会的塑造力量被低估了。Meta公司的数据库中存储着大量网民的信息,社交媒体巨头正在通过垄断潜移默化地影响人们的决策。人类生存于一个虚拟的、数字化的空间,在这个空间里,人们应用数字技术从事信息传播、交流、学习、工作等活动,每个个体的言行举止在不经意间就会留下“痕迹”,成为可以被记录与分析的对象。在大数据时代,被量化的“痕迹”并不是孤立的存在,它们之间有着千丝万缕的联系。数据垄断者可以通过相关性耦合产生一套新的权力关系,进而对不断被数据化的社会带来深刻影响。

从经济学视角来看,市场经营者基于自身的数据优势,做出妨碍市场竞争和影响社会福利的行为,可以被认定为数据垄断。具体表现分为以下3种情况:

第一,对数据资源的排他性独占。经营者通过多种手段阻碍竞争对手获取数据资源,从而强化自身的市场主导地位。尽管数据的非排他性、高流动性和数据主体的多归属性会弱化数据资源的集中程度,但经营者可能采取措施限定交易相关人。例如直接与用户或第三方签订排他性条款,从而达到阻碍竞争者获得数据的目的。Google公司曾要求第三方网站与其签订搜索广告的排他性协议,以防止竞争对手获取相关数据资源。

第二,数据搭售行为。没有正当理由搭售商品,或者在交易时附加其他不合理的交易条件,属于滥用市场支配地位的行为(《中华人民共和国反垄断法》)。在数据相关市场上居于支配地位的经营者可能会基于数据优势地位通过搭售行为来增强在其他市场上的竞争优势。例如,基于自身数据优势,将数据与数据分析服务捆绑出售,以此增强在数据服务市场上的竞争优势,这种行为在某些情况下能提高效率,但也可能排挤竞争对手、减少竞争,并被认为是滥用市场支配地位。

第三,根据用户画像实行差别定价。经营者与用户之间存在明显的信息不对称,拥有数据资源的主体通过大数据分析手段为用户精准定位,在为用户提供个性化便利的同时,也为差别定价提供了条件。在大数据环境下,垄断者能够准确识别每个消费者愿意支付的最高价格,就可以实施完全价格歧视。在以较低价格向一部分消费者出售商品的同时,又不会影响向其他用户索取高价格,从而满足所有的市场需求。这也是为什么我们常常发现同一时间、同一地点、同一产品服务在两台不同的手机上显示不同的价格的原因。

从本质来看,Meta案例让人们认识到的是信息共享的双重性问题,即信息共享的自由边界和信息孤岛的价值拓展的矛盾。这个矛盾几乎是数据价值的内生性问题:Meta公司为所有的用户提供了几乎无限制的信息共享,但是同时也带来了隐私侵权和数据垄断等问题。

从数字经济学的逻辑来说,大数据的隐私和垄断问题就是信息共享时代科技伦理的约束机制问题,其背后的基本逻辑是信息共享的边界和信息价值的公平分配问题。我们应该思考如何建立一种数据伦理的约束机制,在确保大数据信息价值被挖掘的同时也能避免相应的风险。

接下来依据制度和伦理的关系讨论数据保护的规则制定问题。2017年6月,Google公司因在搜索结果中推广自己而屏蔽竞争对手的购物比较网站,违反了《欧盟运行条约》第102条关于滥用市场垄断地位的规定,被欧盟委员会处以巨额罚款。在这个案例中,相关机构创造性地提出了“被遗忘权”的概念,用来表示数字经济时代人们有权要求服务提供者删除遗留在互联网上的数据痕迹等个人信息。

从隐私保护的角度来说,数据保护法律架构包括3方面:任何人都拥有个人数据与数据处理的基本权利和自由,个人数据的控制者必须承担个人信息的法律义务和责任,国家必须建立专门的资料保护机构。事实上,在欧洲法院对西班牙Google分公司和Google公司诉西班牙数据保护局一案的判决中,不仅实现了以上3个目标,同时对《欧盟数据保护指令》中保护个人数据隐私的条款采取扩张解释的创新提出了相关意见。2018年,欧盟推出的《一般数据保护条例》(简称GDPR)很显然也受到了相关案例的影响,推动了人们关注数据空间作为公共领域中的信息共享自由以及伦理限度的问题。

面对数据伦理相关的挑战,各国政府制定了很多与隐私和数据安全相关的法规。欧盟在2002年推出《隐私与电子通信指令》。美国通过宪法第四修正案和宪法第十四修正案的相关判例来保护隐私权,还在2012年推出《网络化世界中的消费者数据隐私权》,在2016年推出《宽带和其他电信服务中的用户隐私保护规则》等制度。除此而外,很多国际合作组织,如欧洲数据保护组织联合会(CEDPO)、隐私权专家国际协会(IAPP)等,也在进行相关制度建设。

这里值得一提的是日本公正交易委员会在2017年6月颁布的《数据与竞争政策调研报告》,该报告就数据及其使用环境与状态的变化、手机与使用数据对竞争产生的影响的评估方法以及数据收集与使用行为等多个问题进行了梳理和介绍,关注了很多数据制度的前沿问题(如竞争法框架中的隐私考量、数据原料封锁等)。该报告突出了数据的收集与使用的相关视角,将数据划分为个人数据、工业数据与公共数据,特别是后面两类数据的研究是非常前沿和细致的。

在个人数据方面,该报告提出数据与信息的概念是趋同的(这也是数据伦理和信息伦理的交叉视角),主要讨论的是社交网络市场上的相关行为。而在工业数据方面,该报告强调了数据囤积的概念,指出垄断企业或者寡头可能通过限制数据访问或者数据收集渠道实现数据囤积。在公共数据方面,该报告着重于如何实现政府机构和公共数据的最大化价值应用。通过这样的方式,《数据与竞争政策调研报告》分析了数据交易市场界定的必要性,也为数据相关并购和审查提供了重要的视角。

尽管上述指令或者条例在一定程度上可以为数据伦理保驾护航,但从制度经济学的角度来说,数据监管的危机依然存在。原因之一在于基于芝加哥学派理论基础上的现代反垄断法主要聚焦于3类行为:单纯的横向固定价格和划分市场垄断协议、企图双边垄断和垄断的横向合并、有限的排他性行为。正是受此影响,监管机构容易忽视了跨行业合并中对数据竞争的维护,大量数据驱动型并购也并未纳入经营者集中审查。这充分彰显了在现代反垄断法思维定式下应对多边市场数据垄断问题的危机。

并且,对平台滥用市场支配地位行为的反垄断调查属于事后审查,具有滞后性和被动性。要促进数据产业长期健康发展,监管机构不应简单地以打破企业“数据垄断”为由,要求企业做出经济赔偿或者提供超出必要范围的数据。因此,除了加强对平台跨行业并购整合数据行为的事前审查之外,优化数据的分享机制也是促进大数据发展的关键之举。

笔者参加过国家知识产权总署关于知识产权和数据垄断的研究课题和汇报,深知关于这方面的问题国内外都在作不同的尝试,并非已经形成成熟的治理模式,而分类数据以及数据行为是研究数据伦理问题的核心,需要深入思考数据与必要设施理论以及竞争损害理论之间的内在联系。

最后我们从哲学视角理解大数据带来的变革,看看数据伦理所代表的数据价值观与传统的哲学系统之间的关联和区别。

第一,数据的本质带来了新的关于“数”的价值体系。古希腊哲学家毕达哥拉斯提出了“数是万物的本原”的思想,将数据提高到本体论高度。随着大数据时代的来临,数据从作为事物及其关系的表征走向了主体地位,即数据被赋予了世界本体的意义,成为一个独立的客观数据世界。可以看到,数据在用来记录日常生活、描述自然科学世界之后,终究会被用于刻画人类精神世界,这是数据观的第三次革命。大数据理论认为,世界的一切关系皆可用数据来表征,一切活动都会留下数据足迹,万物皆可被数据化,世界就是一个数据化的世界,世界的本质就是数据。因此,哲学史上的物质、精神的关系变成了物质、精神和数据的关系。过去只有物质世界才能用数据描述,实现定量分析的目标;而现在,大数据给人类精神、社会行为等主观世界带来了描述工具,从而能够实现人文社会科学的定量研究。总之,大数据通过“量化一切”实现世界的数据化,这将彻底改变人类认知和理解世界的方式,带来全新的大数据世界观。但人类的精神世界能完全被数据化吗?精神世界的数据化是否会降低人的主体地位?这也是我们在大数据时代必须回答的哲学问题。毕达哥拉斯关于数是否是世界本原的讨论在计算主义哲学复兴之后又有了新的意义,也在数据作为基本生产资源之后成为我们重新思考世界的契机。

第二,大数据思维与系统思考的哲学。数据带来了思维方式的革命,它对传统的“机械还原论”进行了深入批判,提出了整体、多样、关联、动态、开放、平等的新思维,这些新思维通过智能终端、物联网、云存储、云计算等技术手段将思维理念变为物理现实。大数据思维是一种数据化的整体思维,实现了思维方式的变革。具体来说,大数据通过数据化的整体论,实现了还原论与整体论的融贯;通过承认复杂的多样性突出了科学知识的语境性和地方性;通过强调事物的相关性凸显事实的存在性比因果性更重要。此外,大数据通过事物的数据化,实现了定性、定量的综合集成,使人文社会科学等曾经难以数据化的领域像自然科学那样走向了定量研究。就像望远镜让我们能够观测遥远的太空一样,数据挖掘这种新工具让我们实现了用数据化手段测度人类行为和人类社会,再次改变了人类探索世界的方法。但变革背后的问题亦不容回避:可以解释过去、预测未来的大数据是否会将人类推向大数据万能论?在过去数百年间,演绎与归纳都是基于经验和理性的方法论,而数据的价值则通过算法等方式推动人工智能等领域的产业实践和洞察,关于智能本质的讨论也是基于这样的方法论,如何理解它的真正价值是理解数据未来和复杂性经济系统的关键。

第三,数据建构出来的认识论问题。近现代科学最重要的特征是寻求事物的因果性。无论是唯理论还是经验论,事实上都在寻找事物之间的因果关系,区别只在于寻求因果关系的方式不同。大数据最重要的特征是重视现象间的相关关系,并试图通过变量之间的依随变化寻找它们的相关性,从而不再一开始就把关注点放在内在的因果性上,这是对因果性的真正超越。科学知识从何而来?传统哲学认为,它要么来源于经验观察,要么来源于所谓的正确理论,大数据则通过数据挖掘“让数据发声”,提出了全新的“科学始于数据”这一知识生产新模式。由此,数据成了科学认识的基础,而云计算等数据挖掘手段将传统的经验归纳法发展为大数据归纳法,为科学发现提供了认知新途径。大数据给传统的科学认识论提出了新问题,也带来了新挑战。一方面,大数据用相关性补充了传统认识论对因果性的偏执,用数据挖掘补充了科学知识的生产手段,用数据规律补充了单一的因果规律,实现了唯理论和经验论的数据化统一,形成了全新的大数据认识论;另一方面,由相关性构成的数据关系能否上升为必然规律,又该如何去检验,需要研究者进一步思考。认识论问题究其本质就是我们理解世界的视角,在这个视角上数据正在重塑我们的思考逻辑,并推导出越来越多的思维方式。

传统经济模式将土地、自然资源、人口、资本等作为生产要素,其大多为实体资源。而数字经济中的关键信息和价值元素则普遍以数据资源生产、存储、流通与应用,这样的虚拟资源形式不仅拓展了要素资源的应用广度与深度,与实体经济中的传统生产要素相结合,形成人工智能、机器人、区块链、数字金融等新经济范式,为实体经济的传统产品和服务在质量、效率和效益方面深层次赋能,从而实现实体经济的效益倍增。与此同时,随着数字经济在国民经济运行中的占比越来越高以及对实体经济的赋能不断加深,数字经济赖以维系的生产要素——数据已成为国家基础性战略资源。海量且高质的数据作为工业社会的宝贵资源,为包括人工智能在内的自动化决策工具提供基于过往经验的判断决策依据。掌握了数据,拥有对数据要素的产权,就意味着拥有了回溯经验与洞察未来的权力。

数据资源成为当前数字经济发展最重要的生产要素,但这些数据来自真实社会中每一个参与生产活动的个体,在各种技术与力量的渗透之下,一些伦理问题被暴露无遗,主要有以下几方面。

第一,信息安全问题。数据产业链环环相扣、错综复杂,数据分析的采集终端、处理节点、存储介质与传输路径不确定、风险高。

鉴于数据产业链环环相扣、错综复杂,且基础训练数据作为人工智能的生产要素贯穿整条产业链,数据分析的采集终端、处理节点、存储介质与传输路径不确定、风险高,用户缺乏对上述环节的控制、监督和知情。同时,行业也缺乏统一标准和行为规范来限制相关企业在以上4个环节的权责分配和行为合规,这一部分隐私数据的使用边界与安全保护完全取决于服务提供商自身的安全技术素养、道德规范与行业自律。一旦在某一流程出现信息安全风险,如病毒、木马、网络攻击,导致信息空间、信息载体、信息资源受到内外各种形式的威胁与侵害,用户对自己的隐私数据就可能完全失去控制。

第二,人身权益问题。数据的滥用造成隐私透支,人格尊严更易被贬损。

以人工智能领域最为常见的生物识别为例,面对处置用户生物识别信息的问题,以苹果公司为代表的企业宣称自己仅将用户的指纹、人脸数据存储在终端设备本地,并采用物理加密的方式确保这些数据的整个调用过程完全脱敏和本地化存储。但更多的厂商则将人脸数据作为用户画像的一部分在线上随意流转传输,常见的网络传输与加密协议显然无法与人脸数据的安全级别与敏感程度相匹配,人脸识别应用的数据存储与传输流程均有可能被劫持,存在严重安全风险;加之当前数据爬虫、网络入侵、数据泄露等已经成为互联网中的常态,收集人脸数据的供应商完全有可能主动或被迫未经用户授权或超出用户协议许可的范围对用户的人脸数据进行采集、使用、流转等非法操作。例如,一旦人脸特征信息被不法分子拦截或者从被攻破的本地加密存储中复制出来并运用在目标用户所使用的安全验证服务上,攻破用户自己使用的人脸识别服务并获得用户本人才具有的敏感权限(如金融交易、人脸门禁、手机解锁与计算机敏感数据访问等)可谓轻而易举;将人脸数据与深度合成技术结合,被不法分子用于伪造具有人格诋毁性质的多媒体内容,或者捏造虚假音视频片段恶意侮辱、诽谤、贬损、丑化他人,势必会对受害者造成极大的人格侮辱与内心创伤并带来非常恶劣的社会影响,甚至被用于干预国家政治或执行军事行动。用户对人脸识别服务的依赖越深,隐私泄露事件对用户的影响也越显著,人脸识别的专属性与唯一性也导致受害者后期难以挽回与消除由人脸数据泄露或非法篡改利用而造成的损失与不良影响。

第三,商业道德问题。人工智能产品可能诱导用户主动透支个人数据,人类失去对隐私与敏感数据边界的控制。

除了被用于人工智能底层算法模型训练的数据和为支持个性化产品服务而采集的数据容易遭遇泄露、篡改等高风险情形以外,还有一种挑战隐私伦理的可能情况是强人工智能产品突破其设计伦理底线,通过一系列激励机制诱导用户提供原本对学习过程没有帮助或高度敏感的隐私数据并对其进行商业化利用。随着人工智能与消费者之间的关系日趋紧密,一些过于依赖人工智能产品的消费者,可能会在企业主观恶意或客观操控的情况下,由于受到诱导或胁迫而泄露与自己相关的敏感数据,企业采集了这些敏感数据后将其用于其他非公开活动。如何保证人工智能产品在规范框架下与人建立合理交互与数据使用边界,不做出侵犯用户隐私信息、突破其职能界限的事情?面对人工智能技术的飞速发展,这一问题值得我们正视。

第四,“知情同意”原则在无处不在的传感器与潜在数据开发价值下失去作用。

首先,公共场合或个人终端装配的大量传感器全方位侦测与人相关的数据,并将其用于多种复杂场景,数据规模非常之大。例如,人脸作为人在社交活动中最直观的身份认证,难以通过有效手段得以保护,这就导致用户在公共场合面临在未经自己允许甚至不知情的情况下被非侵入性识别技术监控并抓取数据的风险,例如IBM公司在被获取数据的自然人毫不知情的情况下从Flickr网站抓取了近100万张照片用于训练人脸识别算法,这无疑是对用户隐私的侵害。其次,数据本身的潜在价值往往是在数据被再利用之后才能被发现,数据采集方往往无法提前告知用户这些数据被用于何种行为,知情同意成了空文。最后,在开始收集数据之前要求个人知情与同意,在处理公共事件时也并不合理。例如,新冠肺炎疫情爆发后,约翰斯·霍普金斯大学搭建的全球病例规模数据可视化看版统计了全球所有国家的新冠肺炎确诊人数,若想请求全球几亿人的同意也是不可行的。

第五,知识产权问题。大数据加剧了知识产权和网络自由共享之间的矛盾。

知识产权作为一种无形资产,既具有对于知识产权的专有权与垄断性,又具有一定时间与地域特性,这就使得知识产权的专有权与垄断性往往在一定时间与地域条件下才能生效。合理且有一定约束的自由共享有利于知识产权的价值转化,但网络大数据的诞生无疑正在挑战这一原则的平衡。首先,网络大数据使得知识产权更容易被侵犯、盗用、复制与传播。其次,现代网络技术对于知识产权与标准的控制也妨碍大数据的发展,大数据的发展加剧了知识产权自由共享和限制使用的矛盾。

我们希望社会成员能够平等按需获取数据资源,并根据生产活动中的贡献得到相应的财富分配。但现实中,囿于数据驱动的生产力和生产关系之间的矛盾,个人用户与平台企业在数据资源分配和应用上往往相互对立,同时企业之间也存在数据垄断等矛盾,具体来说,可以解构为以下4方面:

“数据归谁所有?”——数据的产权归属问题一直是行业内争论的焦点。尤其是那些去除个人身份属性的数据交易行为,由个人产生的数据被企业所收集并脱敏存储或被政府部门收集的情况下,其所属权究竟归属于个人还是企业/政府,各方莫衷一是。一种观点从数据创造价值的特征角度认为非结构化数据在个人手中不产生任何价值,因此数据产权应配置给创造数据价值的平台企业;另一种观点则追溯数据创造价值的逻辑,认为虽然个人数据并无多少直接使用价值,但作为企业、行业、政府甚至国家数据的逻辑起点,每一个用户所贡献的个体数据汇聚成能够为平台企业创造巨大价值的数据集,也应当从数字化红利中分得相应的报酬,这样才能使得数字经济呈现平衡发展的态势。

“数据由谁在用?”——作为当前数字经济时代数据大规模使用的两个主体,政府通过公共服务网站、数字政务平台与“一网通办”等系统采集大量数据,企业则借助向用户提供服务来收集用户信息,并通过数据分析得出不同维度下的趋势与规律特性,从而改进、优化其服务精准度与用户体验。正因为如此,数据在以上应用过程中体现的存储与传输的便捷性、非竞用性和低成本复制性也使得针对数据的产权保护成为难题,即便数据产权清晰也无法完全规避其被非法主体占用、窃取、滥用;加上随着技术的下沉与人们逐渐认识到数据的价值特征,诸如网络爬虫、撞库攻击等数据窃取技术发展迅速,无论是公众隐私还是政府治理与国家安全都比以往任何时候更容易受到隐私侵犯与数据窃取、滥用等不正当使用的威胁,严重侵害数据所有者的产权,损伤数据稀缺性。

“数据用多少?”——作为数字经济中财富与价值的源泉,个人消费者产生的数据是平台企业利润与价值的基础来源,也是数字公共服务与政府实现数字治理的关键要素。但目前由于个人数据权属不清晰导致个人数据滥用或过度限用等极端情况,使公众的个体利益与平台或公共组织的利益形成二元对立的矛盾局面。个人数据滥用可能导致平台或公共组织对个人隐私信息的垄断,会带来以下3个层面的不利影响:首先,隐私泄露、数据窃取导致个人用户的隐私权遭到侵害,继而导致个人用户作为创造数字经济价值的源头无法参与数字化红利的分享;其次,潜在的算法歧视与大数据“杀熟”等差别定价机制使得不同个体无法公平享有公共社会资源,继而进一步拉大数字鸿沟;最后,消费者的人格权在整个过程中被无限稀释,各类平台毫无节制地取得用户授权并收集个人信息,实际上是在争夺人格定义与尊重的话语权,个人用户从主动地使用服务逐渐变成为服务方被动地贡献数据,人格被异化成一个个数据集。而个人数据的过度限用则无疑阻碍数字经济对实体经济的赋能,继而影响数字化转型与数字化红利的释放,大幅度提高股权成本与执行门槛,以至于超过数字经济的收益,从而扼杀创新并影响企业融资、就业岗位、工业产值等核心国民经济运行因素的稳定。

“数据收益归谁?”——利用数据优化产品服务所带来的可观经济利益在数据的生产者(个人)与收集者、加工者(企业、政府)多方之间的分配问题牵动着众多主体的利益。尽管当前司法判决更倾向于将数据收益分配给二次开发利用数据的收集者、创造者与实际控制者——企业,但在一些公共服务尤其是政务数据场景下,作为应用者的政府与作为生产者的个人在没有司法判决的支持下是否能拥有获得合法收益的权利?出现这种情况主要有以下3个原因:首先是数据流通环节缺乏公认可行且可靠的确权技术方案,导致不同环节的交易主体无法被有效界定,收益也无从归属;其次是不完善的数据产权保护体系导致数据产权交易行为缺乏安全保障,数据收益存在风险漏洞;最后是在进行庞大且实时传输的数据交易时,数据所有权和使用权的分离在个人隐私保护、商业机密脱敏的要求下很难以低成本、高效率的方式实现。这些都是数据产权治理领域需要在理论和立法上进行阐述与探索的关键命题。

进一步阐述数据产权命题,需要从以下3方面来解构:首先,从个人权利角度来说,相关各方需要在依法依规的制度框架下采集、存储、使用数据,有效保护个人信息安全;其次,从国家战略角度来说,数据主权问题已成为事关国家总体安全的重要问题,一个国家对本国所产生的数据需要具有完全管理和利用的自主权,在不受他国侵害的安全保障下,积极参与全球数据治理;最后,从科技创新主体的角度来说,无论是针对个人隐私保护还是国家安全的考量,都需要为企业科技创新留出足够的空间,以合理的尺度权衡个人、企业、国家三方对数据这一生产要素的需求,避免因噎废食。这就需要公共政策机构在处理与数据要素配置相关的立法和治理问题时,针对数据确权、数据内容敏感性审查、数据利用方式评定等方面制订足够细化的法律法规和操作细则,充分释放数据生产力。

从实践出发,我们可以进一步总结归纳数据产权的治理困境。首先,从立法上,无论是针对国内数据循环还是跨境数据流通都缺乏数据产权的具体制度,数据产权的保护态度并没有从立法层面得以彰显;其次,在司法实践上,面对数据资产保护与数据权属争议等案例,相关机构大多采取回避、保守的态度,例如相关多数判决会援引《反不正当竞争法》第二条的有限一般条款,这种“兜底”或“包容”的模糊态度使得相关判决无法在处理数据产权保护的司法案件中发挥效能;最后,在监管层面,由于缺乏统一且有效的司法理论与实践探索,监管机构在保护数据产权、确保数据交易与流通合规过程中往往要求多方授权与合规审查,这无疑会影响数据产权的流通形式、效率,继而进一步削弱数据所形成的生产力。

以上就是基于数据伦理、制度假设和哲学视角对大数据相关的科技伦理问题的讨论。不论是大数据、人工智能还是基因编辑技术,本质上都是数智时代的颠覆性技术,都具备“一个硬币的两个面”。在关注科技伦理问题时,我们不仅要看到技术优势的一面,而且要通过经济学和哲学等其他视角审视它的另一面,这样才有可能理解其在现实中的应用范式和对社会运转的基本逻辑的影响。

因此,我们后续讨论人工智能伦理问题的基础也在于理解人工智能的技术本质、经济学视角以及哲学视角,通过这些跨学科的研究开拓我们关于未来的认知。唯有如此,我们才能在进入“数智化风险社会”之后,延续我们塑造现代性的正向价值的累积,将更多、更好的科技应用于人类文明的开拓和发展。同时,控制技术伦理带来的诸多风险,将现代性带来的人类与自然的冲突、人类自身种族的延续以及人类精神层面的孤独与漂泊等问题控制在一个可以接受的范围内,这也是数字经济时代所面临的重要且本质的问题。