聚光灯 SPOTLIGHT
跟踪
TRACKED
作者是莱斯利·琼(LESLIE K.JOHN)
刘铮筝 | 译 刘筱薇 | 校 时青靖 | 编辑
公司随时随地在收集越来越多的消费者数据。该不该遏制这一趋势?
未知情同意
UNINFORMED CONSENT
作者是莱斯利·琼
从地理位置到DNA,公司希望有权获得越来越多个人数据。它们能否在不激起隐私争议的情况下,发掘这些数据的价值?
3年前,讽刺网站洋葱新闻(The Onion)发表了一篇文章,标题是《某女在八个网站上被其心仪的鞋子广告纠缠不休》。无论该虚构消费者上哪个网站,她都看到了同样的广告。“最令人毛骨悚然的是,”她在新闻中说,“广告甚至似乎知道我的鞋子尺寸。”这篇新闻引发了一种越来越常见,或者说笨拙的数字营销技巧。但今天人们可能已经对这篇新闻里的包袱习以为常了。技术已经超越了方便广告网上跟踪我们的浏览器cookies和重新定位。
智能手机在跟踪我们的物理位置和与他人的远近。正如研究人员最近发现的那样,当我们关闭位置服务时,手机的此类功能仍可继续。我们可以在网络浏览器上禁用跟踪功能,但我们的数字指纹仍然可以跨设备连接,从而暴露我们的身份。像Alexa这样的家庭助理能够聆听我们的谈话,并在激活后记录谈话内容。从芭比娃娃到医疗设备,这些日常物件接入互联网并传输我们的各种信息:运动、行为、偏好,甚至健康状况。
如今一大主流网络商业模式是尽可能多地收集个人数据,然后使用或出售——用于定位或说服,奖励或惩罚。互联网已然成为监视经济。更重要的是,数据科学的兴起使得收集的信息更加强大,让公司能建立非常详细的个人档案。机器学习和人工智能可以使用看似随机的数据对人们进行准确到可怕的预测。公司可以使用数据分析来推断某人的政治派别或性生活,甚至发现谁曾有过一夜情。随着面部识别软件和家庭DNA测试等新技术被添加到工具包中,公司进行的监控可能很快就会超过20世纪最不尊重隐私的监控型国家。
显而易见的问题是,消费者怎么能坐视不管?作为一名行为科学家,我研究有时人们如何做出违背自己利益的行为。一大问题是“知情同意”——公司在这种经济中经营必须遵循的原则——这纯属欲盖弥彰。大多数消费者要么没意识到他们在网上分享了个人信息,或者无法确定分享这些信息的成本(这非常容易理解)——如果不是两者兼有的话。
诚然,消费者确实从所有这些数据收集中获得了一些好处,例如更有用的广告和更好的客户服务、定价,甚至获得信贷的潜在可能。但公司迫切需要找到一种平衡利益与隐私保护的方法。消费者权益倡导者正在就侵入式数字实践发出警告。无论是否涉及Equifax丢失数千万人的敏感信息,还是俄罗斯特工利用社交媒体操纵美国人的选票,每当丑闻登上头条时,公众都会表示强烈抗议,互联网隐私专家不久前还被视为边缘怪胎,现在则在国会和头条会议上听证。欧洲已经通过了保护用户隐私的主要立法。我们开始看到普遍存在的“技术抵制”迹象,可能对使用消费者数据的公司产生深远影响。Facebook在公开表示可能缩减某些数据收集后,市值大幅下挫约20%,这可能不是巧合。
与此同时,消费者不会因更好的隐私保护奖励公司。隐私保护增强技术尚未被广泛采用。人们通常不愿意为加强隐私保护的技术付费,即使他们这样做,也只会支付适度的金额。虽然有些人可能会将此视为人们根本不关心隐私的证据,但我得出了不同结论:人们关心隐私,但我将在本文中解释,几大因素阻碍了他们做出明智选择的能力。
如果双方继续处于这些不同的轨道,监控经济可能会导致市场失灵。好消息是,政策制定者可以提供帮助。第一步是了解人们如何决定他们的个人信息隐私以及他们如何被诱导以至分享过度。
作者
莱斯利·琼
莱斯利·琼是哈佛商学院工商管理马文·鲍尔教席副教授。
她被心理科学协会评为“明日之星”,被营销科学研究院评为“杰出青年学者”,还是《连线》杂志的创新研究员。她的研究成果见诸《美国科学院院报》《心理科学》《管理科学》《营销科学学报》研究期刊和《美国医学会会刊》等知名学术期刊,并被《纽约时报》《华尔街日报》《金融时报》和《时代》周刊等主流媒体报道。
在童年时期,琼注意到父母选择中有一些怪癖,由此开始对人们的决策过程着迷。有时她的母亲会从杂货店买回五罐椰奶。“我问她为什么要买这么多,她说因为限购五罐,”琼回忆道,“所以她必须买够五罐。但如果没有限制,她可能一罐都不会买!”
今天,琼的大部分研究都与隐私决策心理学有关。她看到新技术极大扩展了我们分享信息的能力,同时满足了我们对沟通、互动和自我表现的内在渴望。
这些技术为公司和消费者提供了许多令人兴奋的新机会,但另一大原因是越来越多,且私密的个人数据助推。因此,琼开始研究很多隐私带来的挑战。她试图理解为什么我们对个人信息的决定容易出现错误和偏差,以及消费者如何对公司愈演愈烈的监控做出反应。例如,她研究为什么人们发现一些有针对行为的广告有用,而另一些则具侵犯性且令人不适。她的研究目标是帮助个人和公司更好地驾驭数字世界。
本组文章中,琼分享了她的研究成果,并讨论其实际意义。她希望她的建议能帮助我们所有人意识到收集数据的巨大益处,同时解决其危险。
消费者如何越陷越深
坦率地说:人们不善于对私人数据进行决策。他们误解了成本和收益。而且,人类本能的偏见会干扰他们的判断。无论是有意还是无意,主流平台公司和数据聚合商都将其产品和服务结构化,从而在不知不觉间利用这些偏见。
不耐烦。人们倾向于高估即时成本和收益,并低估将来会发生的成本。他们宁可今天要9美元,也不愿等到明天获得10美元。在网上这种倾向表现为,愿展示个人信息换取蝇头小利。免费测验和调查就是主要例子。它们通常由第三方管理,是数据安全的噩梦,但许多人都无法抗拒。例如,在流行测“真实年龄”的网站上,人们透露大量敏感的健康信息,以换取即时好处,即他们的“生物年龄”是否比他们在日历上的年龄更大或更小。消费者披露此类信息,得不到经济奖励。他们可能模糊地意识到提供这样信息的潜在成本(极端情况包括,保险费上涨),但由于这些坏处很模糊且空间距离很远,他们选择忽视,换来几分钟的乐趣。
不耐烦还会阻碍我们采用隐私控制措施。一项实验中,设置数字钱包的人被提供了可以保护(即加密)他们购买交易数据的服务。添加服务需要一些额外步骤,但只有四分之一的人成功完成了这些步骤。绝大多数人不愿意操作一次性但令他们略感不便的简单流程,来保护他们的数据在以后免遭滥用。
数据“交易”通常被有意设计成这种形式:信息披露能产生直接、有形和诱人的好处,而其所带来的成本是延迟和更加不固定的。这些情况下,不耐烦使我们更容易选择披露。例如,移动信用卡站通过电子邮件发送收据,让交易便捷且无纸化。但是公司捕获电子邮件地址和其他个人信息的成本会在以后发生。敏感数据(例如姓名、人口统计信息和位置)会被收集、分享或出售,并且最终定向营销会激怒你。虽然其中一些广告可能会受欢迎,但其他可能令人厌烦或感觉受到了侵犯。有人担心,未来消费者数据甚至可能会用于更有影响力的地方,例如信用评分计算,可能导致歧视性的“数字红线”。
禀赋效应。理论上,人们在购买时愿意支付的金额,应该与出售时要求的商品金额相同。而实际上,通常人们在购买某商品的时刻,会认为其价值低于标价。当人们做出有关隐私的决定时,也具有类似的心理变化。
在一项研究中,阿历山德·阿奎斯蒂(Alessandro Acquisti)、乔治·鲁汶斯坦(George Loewenstein)和我让消费者从两种礼品卡中选一种:价值10美元的“私人”卡,不会跟踪他们的购买记录;或12美元的卡,会跟踪购买记录。参与者可以“购买”隐私,用12美元的跟踪卡换10美元未跟踪卡;也可以选择用10美元未跟踪卡来交换12美元的跟踪卡,来“出售”隐私。在这二种情况下,隐私价格均为2美元。显然,你放弃2美元来保护隐私的意愿不应该受到最初收到的卡的影响。但事实上,近50%的人愿意为了2美元放弃隐私,只有不到10%的人愿意花2美元来获取隐私。
这意味着当我们必须购买隐私时,我们会认为隐私更不值钱。因此无论我们的信息是默认公开的还是私密的,都会产生巨大影响。当默认公开时,我们更愿意共享它。从更广义上看,这种差异也可以解释,为什么侵犯隐私往往导致抗议,而保护隐私带来的益处却没有得到相应的认可。它也可能为隐私侵犯的恶性循环创造条件:隐私泄露会让信息越来越公开。我们的信息越公开,我们就越不重视隐私,进而更容易出售自己的隐私。
公司已经制定了松散的隐私默认设置,也就是技术行业的默认设置。以下是几个例子:2016年11月,优步改变了预设选项,允许app可以随时跟踪用户。(受到批评后,又于2017年9月恢复原状。)在社交支付应用Venmo上,交易是默认公开的。只要一打开地图应用,Google就会自动存储你的位置;选择退出的设置令人困惑,或者也可以说完全是种误导。
用户选择退出的权利也常令人摸不着头脑。在最近的一份白皮书中,参议员马克·华纳(D-VA)强调了Facebook的移动应用程序如何使用默认值“欺骗性地激励用户同意将手机联系人上传Facebook(跟踪用户的‘社交图表’可获得暴利)。”Facebook移动应用程序的第一个截屏给人的印象是,同意共享联系人是唯一的选择。只有当用户点击“了解更多”按钮时才会发现(向下滚动并仔细查看)他们可以选择退出。
控制错觉。人们误以为他们可以控制随机的过程。这就解释了,为什么测试者认为亲自挑选的彩票比随机发给他们的彩票更有价值。人们还将表面上的控制与实际控制混为一谈。在一项关于行为定向广告接受度的研究中,塔米·金(Tami Kim)、凯特·贝拉琪(Kate Barasz)和我发现,当给予他们控制感时,人们更能接受第三方数据共享(这是他们通常认为感到侵犯的做法——哪怕他们以为自己能控制的内容与看到的广告或共享的数据无关。)一些无关紧要的事情足以使人们安心,比如提醒他们可以选择自己的头像。相关研究表明,人们对自己在网络空间中控制自身安全的能力过于自信。在Experian最近进行的一项调查中,56%的受访者错误地认为,身份盗窃的风险会随着时间的推移而降低,而10%的人认为,因为自己财务状况不佳,所以没什么风险。
虽然让消费者更多掌控其数据的一些努力是有意义的,但从一些案例中我也看到,虚幻的控制感能安抚他们对隐私的焦虑,比如网络广告促进会的“消费者选择退出”网站。该网站告诉人们哪些公司为他们浏览器定制广告,并可以选择不接受哪些公司的广告。当我使用这项服务时,我选择屏蔽了72家公司的广告。我感觉自己有控制权。但当我检查细则时,了解到我的选择只会阻止特定公司提供有针对性的广告,并不一定能阻止我被跟踪。这一点很容易被遗忘,毕竟我看不到那些有针对性的广告了——正是这点提醒了我,我的数据正在被收集。
渴望披露。这一点并非决策偏见,但人类拥有与他人分享的本能愿望,甚至需求。毕竟这就是我们建立关系的方式,人类本身就是社交动物。在一项研究中,即使是那些非常关心自己隐私的人也会随时将个人信息泄露给聊天机器人。透露秘密益于身心。当陌生人在实验室实验中被配对并鼓励互相分享个人信息时,他们会建立更融洽的关系。坚持在日记中吐露焦虑,可以改善身体健康;而保守秘密对健康不利。一项神经科学研究发现,人们披露自己的信息,会激活他们大脑中的奖励区域;在同一个实验中,人们甚至放弃了金钱奖励,以换取机会回答个人问题。
如何看待那些弃权的人,也充分说明了我们对披露的态度:我们鄙视那些藏着掖着的人。例如,我与凯特·贝拉琪(Kate Barasz)和麦克·诺顿(Mike Norton)的研究所表明的那样,和透露关乎自己破坏性信息的人相比,我们更加不喜欢和不信任避免回答个人问题的人。在一项实验中,参与者表示,和拒绝回答有关吸毒问题的人相比,他们对雇用一名承认吸毒求职者的兴趣更高。
线上社交和商业交易之间的界限越来越模糊。例如,几乎所有社交媒体平台上的广告看起来都和非商业内容很相似。虽然这种做法可能还有其他原因(例如,让广告看起来不那么烦人),但这样做也让广告看起来像社交帖,我怀疑这有助于触发人们披露信息和克制隐私焦虑的愿望。
类似的,随意、不专业的界面也容易触发自我披露,哪怕这些界面往往露出隐私保护薄弱的迹象。事实上,披露信息的愿望似乎正是许多社交媒体网站的核心,比如Facebook发帖的提示文字永远是“你在想什么”。在线零售商也一直在销售流程中添加类似的社交元素,例如旨在与消费者建立融洽关系的聊天代理机器人。Venmo网站的结构反映了社交媒体网站的结构;用户通过添加联系人来构建社交图谱。联系人的交易突出显示在消息通知中,使得财务交易看起来像是社交交易,将人们通常会保密的东西转变为他们不仅愿意分享,而且可能想要分享的东西。虽然消费者可能从网站的社交方面获得一些价值,但这些方面也可能弱化披露带来的风险。
虚假的界限。在离线环境中,人们自然而然理解并遵守关于自由裁量权和人际交往的社会规范。虽然我们可能想要谈论某人,但是“不要背着别人议论他”的规范通常会抑制这种冲动。当其他人在场时,我们大多数人永远不会告诉值得信赖的知己我们的秘密。如果我们透露不合时宜的内容,那么人们当下的反应会提醒我们迅速收回话题。但在网络世界中,规则是不同的。例如,我们通常不会获得同样丰富的真诚反馈,让我们以为自己仅向选定的一群人披露信息,例如我们社交媒体信息流中的朋友。当人们只向特定朋友发牢骚时(例如,关于他们的雇主),也许会遇到麻烦,因为他们忘记了可以看到这些披露的受众更广泛(比如他们的老板和同事)。
我们很容易被看似短暂的数字互动所诱惑。我与雷托·霍弗斯特(Reto Hofstetter)和罗兰·鲁佩尔(Roland Rüppell)的研究发现:允许消息消失的暂时共享技术,例如Snapchat和Instagram Stories会引导人们进行不受限制的披露。然而,这对他们声誉的损害可能更持久。哪怕猥琐的举动稍纵即逝,我们大多数人也不会想在专业会议上这样做。但在线上,也许因为我们经常收到无足轻重的反馈,短暂的承诺促使我们过度分享。
复杂性和难题
我们已经从消费者和生产者两方面分解了监控经济,但其背后还有一个日益重要的因素:复杂性。你知道cookies是如何工作的吗?你是否了解你的浏览历史记录、搜索请求、Facebook点赞等信息是被如何变现,在中间商之间交换,并把定向广告发给你的?当你要求数字助理做某事时,你知道自己被记录和跟踪的内容吗?
答案可能是否定的,这就出问题了。任何正常运行的市场的一大关键原则都是“买家注意”。但在线上,权衡分享带来的风险与收益好像是一门玄学。当公司跟踪你的位置时,你失去了多少隐私,其价值几何?
为了让GPS导航工具更方便而失去这些隐私,值得吗?如果对消费者进行持续位置跟踪,应该怎么补偿他们?此外,监控经济的幕后“管道”十分错综复杂且不透明,所以消费者几乎不可能充分了解真相,也无从得知所有第三方对你的数据做了或将要做什么。尽管Facebook一直在加强对应用程序以及对用户数据访问的监督,但事实上许多应用程序一直在出售从Facebook上获得的用户信息,而且当消费者同意应用程序的条款后,他们无法知道自己的数据最终会被用来做什么。假设几年前你点击Facebook链接进行了一个诸如“哪部80年代电影最能代表你的生活”的测试,测试管理员可能已经收集了你的一些Facebook数据——生日、朋友、您点击的内容、点赞内容、位置、参加的团体、签到的地点,通过将其包装在JavaScript中供第三方使用,从而绕过大多数网络浏览器提供的隐私保护。数据中间商可能已经收集了打包信息并将其出售,用于定向广告活动。你根本无法弄清数据如何在广告生态系统中移动,也无法识别所涉及的中间商或代理商,也没有什么能阻止你的朋友和其他人分享你的信息。在经济学家苏珊·阿希(Susan Athey)、克里斯蒂安·卡特里尼(Christian Catalini)和凯瑟琳·塔克(Catherine Tucker)进行的研究中,人们随时可能为了免费比萨而透露朋友的电子邮箱。
即使消费者积极寻求发现有关他们的个人信息以及与哪些实体共享,但公司并不总是乐于提供信息。当用户点击Facebook的“为什么我看到这个广告”功能(很难找到)时,他们给出的解释有时太宽泛,所以毫无意义(例如,“你看到这则广告的一个原因是Rothy想要接触可能与他们的客户相似的人”)。
即使监控经济中的所有参与者和交易都被广而告之,消费者有时仍会发现,无从知晓自己实际披露的内容,因为分散的数据片段可以被合成新数据。例如,如果知道了某人四次信用卡的交易日期和位置,就能识别出他是谁。一个人的社会安全码有时可以通过他的生日和出生地来预测,这就意味着,如果消费者把生日提供给已经知道其出生地的某一方,就相当于无意中透露了自己的社会安全码。消费者披露的内容不仅受到他们决定披露内容的影响,还取决于接收者对该消费者的了解。
算法和处理能力现在已经能够在无需索取数据前提下,搭建用户行为画像。用户只需存在于某人的社交网络或给某人的社交信息流中,其行为模式和画像就唾手可得。
这种现象导致了一大全新难题:如果公司使用机器学习来构建消费者画像,那么该画像是否受个人身份信息监管规则的约束?消费者有权使用该画像吗?公司是否应该在未经目标同意的情况下,被允许使用这些技术,或者根本就不应该允许?没人知道答案。
出于所有这些原因,隐私决策复杂异常。当人们认为决策过于复杂时,他们很容易放弃。任何决定是否“接受”在线使用条款的人对这一点都有共鸣。这些条款往往极其冗长,因此情理之中的是,你不能指望任何人读一遍,更不用提理解其意思了。一项研究估计,如果把访问的每个新网站的隐私政策都读一遍,美国人每年需要花540亿个小时。
因此,面对此类条款,大多数消费者都会举手投降——如果他们想弄清这些条款,就不得不停下来。例如,手机游戏应用用户,可能会惊讶地发现,自己“同意”其中一些应用程序无论出于何种原因,都可以与第三方共享个人数据。有些第三方甚至可以访问人们的麦克风——即使应用程序未被使用,或者信息未被用于游戏,也能使用麦克风录下音频。诸如拥有10亿用户的微信等“超级应用”可以深入访问个人数据,包括社交媒体发帖,银行和信用卡详细信息,金融交易甚至语音数据。通过在技术上提供和信息分享成本及收益相关的信息,并让消费者“同意”,微信及其他类似数字平台保持一种似是而非的推诿。
因为复杂性的存在,在不完全破坏整个系统的情况下很难修复监控经济。虽然最终可能不得不这么做,但绝非上策。数据收集对于互联网用户来说不一定是坏事。消费者已经从监控经济和大型平台公司(如Alphabet和Facebook)获得了巨大利益。然而,大部分监控经济在秘密和默认情况下运作的事实表明,科技公司有理由担心,如果消费者真正理解“免费”技术中暗含的交易,就可能不会选择同意。
此外,当消费者在不知情下网上冲浪时,公司更清楚自身的成本和收益,能更准确地计算跟踪技术和数据中间商的开支,以及更精准定位广告带来销售增长。因此,公司比消费者更具信息优势。就像任何经济学家都会告诉你的那样,不对称本身意味着市场失灵,从而引发监管干预。
恢复平衡
在20世纪60年代,当消费者显然无法正确评估风险(例如,不配安全带的汽车风险以及汽水瓶可能爆炸),而且公司没有动力解决这些风险时,美国和其他政府开始系统地编写产品安全法规。学者们认为,在这种情况下,监管机构认为:将风险转移给能最好管理风险的人——产品的制造者,是合理的。鉴于消费者在评估隐私风险方面面临类似挑战,立法者应考虑采用此方法制定有关个人数据收集的规定。
当然,任何监管机构的回应都会使怀疑论者指出我们尚未开始理解的棘手问题。他们可能会提出的问题如下:
·人们在多大程度上拥有自己的个人数据?
·人们是否应该期望在公共场所具有隐私,或者说,他们在公共场所的活动是否应受到监控?
·在线领域是公共空间吗?
·隐私的价值是什么?能被计算吗?
·个人信息的价值是什么?能被计算吗?
·我可以控制哪些信息,其中是否包括人工智能对我的行为预测?
·实施隐私监管的成本是多少?该成本是否大于收益?
有人认为保护消费者个人数据可能为时已晚,因为它已经被输入机器学习工具中,哪怕不再收集更多数据也能准确推断关于我们的信息。尽管机器学习能力叹为观止,但还未成为现实。公司依旧对获取消费者数据有极大兴趣。但即使人工智能的预测能力确实降低了对消费者数据的需求,监管机构也可以对企业如何利用这些预测进行基本制约(例如,阻止医疗保险公司利用预测来歧视可能有疾患的申请人)。
虽然类似监管细节超出了本文的讨论范围,但我所描述的研究确实提供了一些可能有效的总体建议。首先,我们的目标不应仅仅是增加分享难度或单方面增加企业获得消费者数据的难度。这种方法过于简单化,因为公司和消费者都可以从共享信息中获益。监管机构还应了解限制信息流的成本,例如,这样做可能会阻碍创新。
欧洲最新的《通用数据保护条例》(GDPR)要求公司必须让消费者同意收集个人信息,这值得称道,因为它解决了默认带来的问题,但代价是给消费者带来不便和烦扰。当人们反复面临关于选择加入或退出的决定时,他们就会麻木,这个选择似乎不可取。一些类似因素也让干预数据收集的规则设计别具挑战性。
一种常见的方法是要求公司向消费者提供分享的相关成本和收益信息,并让他们对数据泄露知情。但正如我在上文中提到,研究指出了这种方法的局限。鉴于用户不会阅读隐私政策,哪怕媒体一片哗然,他们在得知信息泄露时也没有太多行动,因此不太可能解决问题。(事实上,在剑桥分析公司丑闻爆发后,大多数Facebook用户并没有弃用Facebook。)
一种相关的方法是利用有针对性的监管来直接降低对消费者的风险,例如,出台个人数据公司可收集的内容以及使用途径的具体细则,并对违规行为进行处罚。美国尚没有关于个人数据收集和使用的联邦级法规,但一些基本规则已经成形。例如,在马萨诸塞州,公司必须加密流入公共网络的个人数据。加州开创性的新《消费者隐私法》对企业出台了若干规则。例如,销售消费者数据的企业必须允许用户在不受处罚的前提下就能选择退出交易。
但这种方法的一个问题是,它可能导致“按下葫芦起了瓢”——公司在遵守规则同时,也能钻法律空子。例如,加州的新隐私法禁止对行使隐私权的消费者进行差别待遇,除非公司能将这种行为“合理地与消费者数据提供的价值联系起来”,这就是公司可能利用一个漏洞。而且在数字空间中公司十分灵活,因此十分容易找到变通方法;对隐私政策措辞的快速调整就能产生巨大后果。
因此,政府干预的真正前景可能在于:激励公司只能以合理方式使用消费者的个人数据。一种方法就是,采用产品安全制度中使用的工具:严格问责,即哪怕没有疏忽或恶意等原因,也要让公司对使用消费者数据可能产生的负面后果负责。相关的,正如法律学者杰克·巴尔金(Jack Balkin)和约翰森·契特兰(Jonathan Zittrain)提出的,将收集个人数据的公司视为“信息受托人”,即有法律义务以可信方式对待我们数据的实体。诸如此类的干预会使公司切实严肃考虑负责地使用数据,并采取积极措施防止数据收集和共享系统中的滥用和失职(否则他们将面临罚款)。
可以肯定的是,首先我们需要找到很多难题的答案。例如,如何确定产生了损失?虽然信息披露造成的损失很难准确计算,但至少可估。胡克·霍根(Hulk Hogan,本名特瑞·博莱亚Terry Bollea)获得了1.15亿美元赔偿。因为八卦网站Gawker发布他的性爱录像,侵犯了他的隐私,观众可能达到数百万人。(充分披露:我在这个案子中担任博莱亚团队顾问。)
另一大挑战是证明伤害,因为这在隐私领域很难做到。有些人认为,法院可能会接受概率损害的办法。那么,“合理”与“不合理”的数据该如何定义?这很难说清楚,往往只有事发之后才能裁断。监管的关键目的是震慑,对滥用数据防患于未然。
还有一大共同疑虑是:监管能减少竞争。对小公司而言,合规成本不堪重负,因此监管的净效应可能会让大企业具有了更大市场势力。但我们有理由相信,如果企业有动力以更可信的方式行事,那么这种弊端就不太可能出现。首先,那些财力雄厚的公司将成为大多要求损害赔偿者的目标。其次,因为不需要对合规进行传统的巨大前期投入,这种方法对新进企业的限制可能较少。
监管不是监视经济的灵丹妙药,肯定会导致新问题。除了遵守法律外,还有更多方法来赢得消费者信任。但是如果我们能利用行为学的观点,接受消费者是不完美的决策者,而不是完全理性的经济参与者,就能设计出更好的监管,有助于实现数据收集的好处,同时尽可能减轻其弊端——对于公司和消费者而言都是如此。
如何行使未征求的权利
为了免受监管严惩,网络平台也应该像医生、银行那样成为受托人。
作者是约翰森·契特兰(Jonathan Zittrain)
总体而言,虽然我也关注隐私问题,但我以前觉得利用私人数据进行定向营销的说法无关痛痒。商家把网页上的狗粮广告换成猫粮,对我又能造成多少干扰呢?仅仅因为他们认为我养狗?而且任何对个人信息敏感的用户只需点击菜单选择退出追踪就好。
但如今时代不同了。
数字监控经济的规模和复杂程度都在迅速膨胀,大部分日常跟踪设备都处于隐藏状态,公众的反应已由沉默变为密切关注,其中相当多的人已经无法承受无处不在的隐私权失控,却往往感到无能为力。与其为之如坐针毡,我们早该有所行动。
虽说向铲屎官推销狗粮人畜无害,但向情绪脆弱和经济薄弱的人推销发薪日贷款就不同了,更不必说具有排他作用的定向营销。茱莉亚·盎格温(Julia Angwin)、奥丽安娜·托宾(Ariana Tobin)和玛德莲·沃纳(Madeleine Varner)发现,在Facebook上可以仅向白人消费者展示住房广告。定向过于狭隘,会限制检测市场失灵和滥用的长期机制:州总检察长或消费者权益倡导者无法应对欺骗性的广告活动,因为可能他们根本察觉不到问题所在。
为逃避当地监管机构的钓鱼执法,优步采取极端方法,将计就计,先利用应用程序收集的数据来确定官员是谁,然后将打车的假信息发送到他们的手机上。
这些是相对较新的问题。无论是搜索引擎或社交媒体,除了用户自身的直接选择外,最初我们使用的信息平台并没有定制任何用户的特殊需求。对“疫苗接种安全吗”等问题,大家的搜索结果都一样。如果搜“比萨”等专有名词,分类也都很直接,比如按地点和附近餐厅的选择等等。如果你不喜欢搜索结果,缺乏定制化并不是搜索平台的责任;你只不过在网上看到了一个窗口。很长一段时间,这种状态对内容聚合器都是可靠的,甚至是理想的。而且在大多数情况下,平台并不总擅长预测他们自己提供的内容,就像赌博轮盘,不受任何人为影响。
然而今非昔比,数字世界已经从吸引战略转移到推动战略:人们不再主动搜索特定的东西,而是在Facebook和推特等网站上任意浏览。越来越多时候,人们不会得到一系列搜索结果,而是从像亚马逊的Alexa这样的虚拟助理那里得到单一答案。可能不久之后,此类助理会主动提出建议,让你为朋友的生日购买礼物(或许来自赞助商),或者在你打车时坚持推荐优步而非Lyft(再次感谢赞助)。
如果智能助手在寻找目的地导航时指错了方向,或做出了错误的药物反应预警,搜索平台可能会说:“不要怪我,要怪就怪互联网!”现在提出这种说法还公平吗?虽然我们倾向于谷歌和必应不需要对每个搜索时返回链接的准确性负责,但针对一个问题,平台主动攫取唯一答案时,或回答从未被提出的问题时,情况可能会有所不同。
我们也已经来到了在线信息流的时代——某些情况下智能助手提供的问题答案已被第三方严重操纵,目的是在问题中植入第三方信息。如果植入的信息是宣传内容,即虚假、出于恶意,而且往往来路不明的内容,这就让我们非常担心。谎言甚至可以左右选举结果甚至造成人身伤害。去伪存真属于平台的业务吗,就像报纸所承担的责任那样?或者说,这让少数企业,还是管理它们的政府拥有了操控内容的权力?——毕竟Facebook可以获得的关注比任何一家报纸都多。
平台公司再也不能对此习以为常,坐视不管。因为平台现在的消费者查询回复都经过精心策划,而且通常只有一个答案。它们可能面临各种尖锐的问责,可能还面临监管审查——解释清楚自己支持或反对什么。当被问及为何得出目前结果时,平台不能只耸耸肩,将之归结为“中立”的算法。平台放弃了责任,导致源头复杂、财力雄厚的宣传方滥用信息。这些宣传方还经常组织Astroturf(伪草根运动)。
那么媒介平台应该做什么?
答案在于认识到如今监控和定向问题的根源:习以为常和所托非人。人们在不明真相,不知道如何使用、传递和销售信息的情况下分享自己的信息。但允许他们选择退出数据收集的补救措施会导致用户产生决策疲劳。这些用户可以选择表明对数据措施的一些特定偏好,并且只是希望不受利用。
餐馆必须符合最低清洁标准,否则(理想情况下)将被关闭。我们不会要求公众在品尝食物之前去研究食品安全,然后“选择退出”可疑的餐饮场所。没有谁会因被阻止吃到沙门氏菌污染的食物而感到后悔。数字世界也需要类似的干预。
当然,在线使用个人信息的最佳实践并不见得像餐厅清洁标准那样清晰。毕竟用户十分重视在线监控得出的大部分个性化信息。这就是为什么我们应从完全不同的关系获取灵感:在这种关系中,收集和使用信息者是熟练的专业人员,能帮助被收集数据的人,就像医生和患者,律师和客户以及经过认证的理财规划师和投资者之间的互动那样。
耶鲁大学法学院的杰克·巴尔金(Jack Balkin)引用了这些例子并建议如今的在线平台应成为“信息受托人”。众多学者与政策制定者和互联网公司合作制定平台应承担的职责,我们也是其中一部分。我们发现在国会中两党都十分关注我们的建议,因为它可以在无须深度政府干预的情况下,保护消费者并纠正明显的市场失灵。“受托人”听起来像法律术语,但它其实是长期存在的常识性概念。受托人的关键特质是忠诚:他们的行动必须在最大限度上保护委托人的利益。当冲突发生时,他们必须保证委托人的利益高于自己的利益。像医生、律师、财务顾问那样,用户把敏感信息委托给社交媒体平台及其智能助理。无论他们想得知的是全球时事,还是到达某地或做某事的方式,用户都希望和平台能公平合作。
信托责任不会一刀切地取消所有定向广告——铲屎官依旧会收到狗粮广告,但会排除侵犯性广告,例如发薪日贷款促销。它还可以防止数据被滥用于分享数据者不希望看到的目的,比如从心理测量学角度,利用“性格测试”的调查结果来分析选民,然后试图动摇他们的政治观点。
这种方法可以避免过滤不良内容,因为它可以让平台根据用户需求做出决策,而不是根据社会对平台的要求做决定。大多数用户都想要真相,也有权获得真相;而其他人可能不在乎准确性,可能更偏爱五花八门的个性观点——如果这是他们的诉求,他们也应该能获得这类信息,然后对其进行备注。谷歌新闻和Facebook等聚合商已经开始做出类似决定,包括什么被标记为“新闻”,什么被标记为“其他”。可能当巨头平台进行判断后,已持怀疑态度的公众才会进一步深入挖掘,但完善可靠的工具也可以告知记者并防止Facebook上的宣传内容扩散到新闻媒体上。
更广泛而言,信息受托人的方法能将多年来碎片化的隐私保护措施联系起来。用户对收集了自己哪些数据拥有知情权,对自己数据拥有更正或清除权,以及对拥有某些数据完全保密的权利。保证了这些权利,才符合强大公司公开、公平对待消费者并将消费者利益置于自身利益之上的义务。虽然餐馆清洁度可以通过容易习得的最佳实践进行管理(将生鸡肉放在单独的盘子上),但医生和律师面临着更为复杂的问题,即他们对患者和客户的责任是什么(如果患者有传染病和危险疾病,能允许他们不接受治疗或随访就走出办公室吗?)。但是,在线平台的窘境更难解决。事实上,数据隐私的少数检验标准之一——“个人身份信息”(PII)的概念,已变得十分模糊,因为现在可以识别的信息能够从以前无害的来源中获得,因此可以说从任何人收集来的每一条数据都很敏感。
然而,许多在线实践公开直接地违背信息委托人的义务。如果众包地图应用Waze告诉我“最佳路线”恰好经过某家汉堡王,而且一旦我在那里就餐了,Waze就可以收取佣金,那么Waze就会将自身利益至于我的利益之上。马克·扎克伯格也可能如法炮制Facebook信息流,只把选举日提醒发送给那些肯定投票给他支持的候选人的选民。只要还没有人从中牟利,或是准备这么做,或许考虑这种可能性还为时尚早。但随着越来越多灰色地带的出现和互联网生态系统的不断发展,信息受托人的方法可以根据新情况和不确定性做出调整。
理想情况下,公司可以自主选择而非被法律强制成为受托人。巴尔金和我提出了可能的执行办法。比如,如果公司选择成为受托人,美国联邦法律可以适当放宽州级法律对公司现有的规定。这样就不会把受托人责任强加于非自愿的公司,它们可以像现在这样,在州级监管范围内抱有侥幸心理。
此外,企业组织架构也需要调整,并采取新措施,让道德问题能够在公司内部暴露出来并加以论证,并在外部进行披露。这并不像建立标准合规框架那么容易,因为合规框架的前提是,对错都是已知的,而管理者只需确保员工按规定行事。而新思路应该鼓励从事新项目的员工对“合法但危险”的发现亮起警示灯,并且称赞而非打击这样做的员工。在医疗和其他领域,这一原则被称为“公正文化”,“心理安全”的管理理念能支持这种文化。也就是说团体里的氛围能让人们放心地表达自己所持的保留意见。此外,信息信托法不断发展,不仅可以保护个人,也可以保护善意提醒公众或监管机构可疑做法的企业。与让代替律师或原告律师对问题进行调查相比,我们更应努力创造激励机制,在行业范围内揭露并解决问题。
这表明了信息信托法初步实施的第三种检验标准:任何公共机构都可以对新问题进行前瞻性而非追溯性的判断。例如,美国国税局可以在确定税收策略前,给予纳税人“私人信件裁定”。在真正的新问题上,公司应该能够向公共权威——联邦贸易委员会或专门处理信息隐私的新机构寻求指导,而不是在不明所以的情况下做出决定,然后发现决定是错的,从而蒙受损失。
任何客户优先、利润第二的方法都有削减利润的风险。这就是为什么我们需要鼓励公平的竞争环境,让所有主要竞争对手都具有尊重的底线。然而,现状还远远不能满足标准。虽然清理数据的做法会增加滥用消费者隐私公司的成本,但没有理由任其发展。就好比,如果污染者被强制取消在河流中倾倒污染物,我们没有必要在乎他们抱怨自己的利润。
充斥着监控的数字生态系统造成的问题越来越困难和顽固。现在是时候以数据可能被滥用的消费者责任为基础,拿出一套能对复杂性保持灵敏的综合解决方案,以便问题出现时得到妥善处理。
约翰森·契特兰是哈佛法学院,哈佛大学肯尼迪学院和哈佛大学工程与应用科学学院的教授。他还是伯克曼·克莱因互联网与社会中心的教学主任。
如何让员工心甘情愿被“跟踪”
避免员工反感的人力分析实用手册
作者是本·瓦贝尔(Ben Waber)
关于数据隐私的讨论往往侧重于消费者和卖家间的动态。公司有权收集哪些个人信息,应该如何使用和关注这些信息?但另一种雇主和员工间的动态提出了更棘手的问题。
多年来,人力分析——使用数据管理员工的科学,从洞察力的绩效评估中吸取了有关年龄、性别、任期和评级的详细信息。但是那种微不足道的收获限制了它的实用性。
最近,传感器技术和实时数据收集已经为公司提供了丰富的员工信息。现在管理者可以获得对员工一举一动的逐秒反馈,并在某种程度上掌握他们的感受。来自电子邮件、聊天记录和日历系统的数据可以与传统HR数据一起进行分析。传感器可以收集非常具体的员工习惯数据:谁与谁交谈,有多少人互相打断,他们的时间都花在了哪里,甚至压力水平。随着员工证件和办公家具加入物联网,公司掌握的员工信息将以量级扩大。HR部门现在几乎可以了解员工的一切。
以正确和道德的部署为前提,新测量工具已经取得的积极影响十分可观。从铁路公司、金融业到快餐业,公司使用来自可穿戴传感器和数字通信的数据来量化和减少工作中的性别偏见,提高警觉性并减少疲劳,显著提升了工作表现,并减少了人员流失。而挖掘这些新技术的潜力才刚开始。
但对员工而言,所有这些数据收集的价值并不明确。高级人力分析甚至可能会妨碍员工自由支配时间和经验的能力。例如数字可能暗示,某种新工作方式效率不高,尽管长期看来有利于公司收益。更糟的是,分析工具会导致泰勒式过度监控,提高了滥用风险。
具有衡量某些事物的能力并不意味这样做是对的。员工支持者担心数据库监视会赋予雇主不合理的员工管理权,他们不确定公司可信,会不会丢失或滥用敏感个人信息。
毕竟,入侵公司系统事件时有发生。从监控员工的压力到使用医疗数据来预测病情,并采取先发制人的行动,距离并不太远。数据也能导致对有效性的错觉。也就是说,它可以让某些结论看起来正确,哪怕相左观点是合理的。例如,员工甲效率低,因为他的产量比别人少10%。但可能他的效率用在了其他方面,可能是减少错误或培训他人。
鉴于这一新现实,管理人员现在面临着一些具有挑战性的问题:他们应使用分析工具来检查员工的工作时间习惯,以评估他们的表现?公司可以访问哪些数据?他们应该与员工分享他们的分析吗?他们应该查看个人数据吗?如何使用数据来确定员工患精神疾病的风险?公司、立法者和监管机构已经开始努力解决在工作场所使用监控工具的规则。
与此同时,管理者需要指导,来有效运行符合道德准则的人力分析程序,避免员工产生强烈反感或严厉监管措施。通过我在麻省理工学院和桑迪·彭特兰(Sandy Pentland)的合作,以及为我自己的分析公司设计产品和服务,在使用监测技术上我已经发现了一些经过了科学检验的基本规则。我已经看到这些技术有效地缓和了潜在问题;也看到了如果不使用这些技术会出现的严重问题。
总之,人力分析技术成功上线需要四到六周时间。虽然在某些组织中可能可以更快地实施,但正确的执行才是关键。这将向员工表明,管理层正在考虑棘手的道德问题,并确保调查结果的有效性得到尊重。忽略这些步骤中的任何一个都会导致选择率直线下降,并功亏一篑。以下是道德、明智地使用员工数据的管理手册:
选择加入。从最简单和最古老的隐私准则开始:如果你发起了收集新类型数据的项目,必须给予员工选择加入的权利,不能收集不同意者的数据。严格来说,强迫人们在工作中放弃有关自己的数据可能在美国和其他一些国家合法,但全球情况并非如此。GDPR等法规虽未明确关注工作场所,但确实对跨国组织中收集数据设置了限制。
但即使在允许这样做的司法辖区,强制监督或要求员工选择退出(特别是在入职期间,选择因为隐藏在细则中而模棱两可)会引发许多道德和商业问题。首先,从纯粹的经济角度看,这样做可能得不偿失。哈佛商学院伊森·伯恩斯坦(Ethan Bernstein)的开创性研究表明,如果员工觉得他们所做的一切都完全透明,往往效率会降低。当人才竞争激烈时,员工可能会离开那些迫使他们放弃数据的公司。除此之外,公司还面临声誉风险。例如,亚马逊、特斯科和《每日电讯报》都曾因提出监测或监测不力,经历了数周的负面媒体报道,哪怕其中一些计划出于好意。《每日电讯报》目的是通过使用书桌传感器提高能源效率——很少有员工会反对这么做。但该媒体公司并未向员工提供足够信息就匆匆推出了项目。在内部遭到抵制后,《每日电讯报》不得不放弃该项目,而且遭到了媒体歪曲。
设置选择加入项目在短期内富有挑战性,时间也很紧迫。该计划还必须包括对选择不参加员工的强有力保护,以免他们感到被胁迫或受到惩罚。保护的主要措施是数据聚合,以防止个人行为被识别。但我也建议采取进一步的预防措施,例如同意书和从收集源头进行数据匿名化,避免热情过度、好奇心太强的管理者窥探员工每分每秒的活动。
为了设计清晰和简明易懂的选择同意书,公司可以参考大学内部审查委员会(IRB),这些委员会对研究者如何与人类受试者进行互动有严格的流程规定。在IRB表格中,研究人员必须明确说明收集哪些数据以及如何使用这些数据。员工还应获得附录,说明所填充数据库表的详情,以便他们能准确查看存储的信息类型。最后,公司还需要签署表格,与员工签订具有法律约束力的合同。(实例详见我们公司使用的同意书。)
沟通和透明度。盲目地向所有员工发送同意书,希望获得高选择率不是明智之举。符合道德标准的人力分析涉及大量沟通和保持透明。我采取的流程如下:
·第一周:发送电子邮件介绍拟定分析程序的承诺,提供公司方法和目标摘要,以及类似程序的新闻链接。
·第二周:经理参加有关该技术的宣讲会,会议留出提问和表达疑虑的时间。随后他们与自己的团队见面介绍项目,并回答下属提出的任何问题。
·第三周:CEO召开员工大会,会上公司向全体员工提供给经理的材料,鼓励每个人发言,自由表达关切和提问。
在某些情况下,公司选择补偿参与分析项目的员工,补偿形式要么是少量金钱,要么是亚马逊礼品卡或公司T恤等奖品。但根据我的经验,这样做会出问题,效果也不好。首先,它为雇主提供了具体谁参加的信息。但是这些激励措施通常不会显著提高积极度。员工似乎觉得收了钱,意味着他们签字画押,出卖隐私,会产生更多的负面反应。员工的心理活动可能是:如果我参加能收钱,他们从中赚的钱肯定更多,谁知道他们在做什么呢?
对于所有计划,管理者都应该为副作用做好准备。即使是善意的监控,引发情绪反应、棘手的问题和指责也很常见。你不能指望取得普遍支持,因为员工不仅需要确切了解正在发生什么,而且必须相信管理者对公司诚实和开放的保证。在信任缺失或士气低落的文化中,这是巨大的障碍。仅仅告诉员工你会负责行动远远不够;你必须向他们展示完全透明的项目运营。
当我了解其他组织中的人力分析计划时,往往发现公司故意向员工隐瞒收集的数据内容和原因。公司天真地认为员工不会发现这些做法,实则不然。合法但不道德的行为往往会引起强烈反对。市场上有很多类似例子,从事不道德监控行为的公司在内部和外部都会遭遇不良后果。
聚合。公司通常认为,去掉名字,数据就匿名化了——并没有。因为人类行为是独一无二的,在没有名字的情况下也能够识别数据的主人,通信网络数据尤其如此。
试想安娜有一件私人办公室,她的工作证上有蓝牙信标,可以随时跟踪她在办公室中的准确位置。安娜是个工作狂。如果我们能在不泄露任何人名的情况下,显示每个员工在办公室里如何打发时间的数据,可能会看到有一个人在办公室里的时间比其他任何人都多,那就是安娜。毫无疑问,她和每个与她合作的人都知道这点。这只是一个涉及单一类型数据的简化例子。事实上,哪怕不太明显的数据,也能通过个人数据分析和机器学习对号入座。例如,通过他们的定位规律识别某人非常容易,并且语义分析通过识别作者的语言习惯,确定文本作者的几率也很高。
公司发放的手机通常用于位置跟踪,但也存在问题。如果仅收集与办公室相关的数据,电话的效用相当于ID标签。但在实践中,它也可以记录和收集员工在办公室外的行踪信息。这些数据在业务上的应用非常有限,而且还非常敏感,应该避免使用。避开这些陷阱并不困难,而且实际上十分有益。
因为,除了创造隐私风险之外,就方法论而言,分析个人行为或挑出一个人进行跟踪是一种较差的数据分析方法。为什么?
情境差异。由于他/她的独特性,某人可能会有特定的行事方式。例如,在寻找卓越员工特征时,公司可能会关注一位明星员工,并注意到数据显示他在午餐时工作。这是否意味着高绩效员工更有可能在午餐时工作?仅凭一个人无法断言!也许这名员工在午餐时必须和很多人见面,因为他需要10个人来批准决定,这是其他人可以见面批准的唯一时间。如果其他决策任务不具有这种结构,工作午餐一项不太可能是高绩效的原因。
侵犯隐私。不可否认的是,微观分析个人行为会产生“老大哥”的问题。即使这样的分析产生了益处,也会被员工不可避免而且合理的负面反应所抹杀。尽管营业额可能增加,但随之而来的员工表现下降和公司负面公关形象可能导致得不偿失。
公司应该要求分析团队汇报群体平均值或相关性等聚合数据,而非单个数据。鉴于公司应该关注行为分布而非个人模式,这种做法也很适合组织的需要。
超越数字。无论公司收集的数据多么细致,如果衡量的事情不正确,那也没有用。例如,虽然认为通信内容比通信模式更重要是顺理成章的,但并不等于是正确的。在我们作为咨询顾问的一家公司中,我和我的团队发现,高管每月与某部门沟通的时间不到五个小时。该部门拥有1万多名员工,负责该公司10%以上的收入。可想而知,该部门一直表现不佳,而且没有与该组织在战略上保持一致。对话太少并不是最重要的,更大的问题是管理层很少与该部门的员工交谈。我们可以自信地预测,如果管理层增加与他们的沟通,就将提升部门的绩效。
同样重要的是要记住,无论多么完整、先进的算法或数据集都无法捕获工作的整体复杂性。你不应该试图建立这样的算法,或者更糟糕的是,相信做出类似承诺的顾问。组织内的人员已经了解工作的完整范畴,弃之不顾而盲从算法会导致许多愚蠢的决定。背景和定性信息能帮助组织了解如何对量化指标加权。
我记得一个例子。某工程类公司希望使用行为数据来提高团队绩效。在这种情况下,凝聚力之类的指标(从聊天和传感器数据中收集的群体强度)经常与更高绩效相关。一名飞行员表示,增加凝聚力能帮助团队达到关键绩效指标并按时交付。如果只看这些结果,管理层会认为应该推进增加所有团队凝聚力的策略,但可能会出错。毕竟,有些团队正在积极打造新产品。管理层应该预判,他们比其他团队更难完成绩效目标,因为创新时间表变数更多。对他们而言凝聚力算法不是最优选项。其他行为,例如探索(与其他团队进行更多互动),可以更好地预测他们的成功。因此如果公司盲目地制定计划来增加所有团队的凝聚力,就会降低专注于创新团队的绩效。
我和我的同事一直遇到这个问题。正因如此,我们确保与内部利益相关者合作,来了解为什么某小组的数据分析并不总适用于其他小组。深层背景知识提醒了我们,某个数据收集分析对应哪一组织特定部分产生影响。
人力分析改善决策的潜力令人震惊。它可以帮助员工更好地工作,挣更多钱,花更多时间与家人在一起。例如,在日本监测技术开始被用于减少过劳带来的巨大人力成本。过去公司可能的做法是,实施减少工作量计划。如果一年之后没有人自杀,说明计划成功。今天他们能够立即看到工作量是否真的减少了。他们可以快速发现改善工作环境的因素并进行调整,而不是继续做一些无效的事情。这实际上是在挽救生命。
但是,公司有责任避免屈从于让员工产生不适的分析工具。企业需要立即开始实施保护措施。否则反应过激的立法将会对他们构成打击;你甚至可以在GDPR中看到闪烁预警。这可能会永久抹杀人力分析的巨大潜力。因此分析产业和公司对强有力的保护具有义不容辞的责任,其中利害巨大,不容忽视。
本·瓦贝尔是组织分析公司Humanyze的总裁兼CEO,著有《人力分析:社会感应技术如何改变商业和告知我们工作未来》(People Analytics:Social Sensing How Social Sensing Technology Will Transform Business and What It Tells Us About the Future of Work)。
问答海伦·尼森鲍姆:
“别总想着同意了:不可能,而且不正确”
数字隐私领域先锋兼思想家海伦·尼森鲍姆深入研究了数据收集政策中的根本缺陷。
作者是斯科特·贝瑞纳托(Scott berinato)
刘筱薇 | 译 刘铮筝 | 校 时青靖 | 编辑
作为一个思想家,海伦·尼森鲍姆积极参与到个人数据收集、使用和保护方式的改革中,这有些出人意料。尼森鲍姆获斯坦福博士学位,现任康奈尔大学纽约校区的信息科学教授,主攻政治学、伦理学以及技术和数字媒体价值观之间的交叉领域——这是学术深水区。她建立的数字隐私认知框架已经深刻影响到现实政策。
除了出版多部著作并发表无数论文外,她还为TrackMeNot、AdNauseum和Adnostic等网络浏览器合作创建了多个隐私插件。尼森鲍姆认为,当前市场中的不透明同意协议几乎剥夺了消费者的谈判权益,数据收集者可以毫无顾忌地收集信息并从中榨取价值,而她创建的隐私插件算是为推动市场合理化改革做出的微小努力。数据收集者的行为还向消费者提出不明确的价值主张,并损害了数字媒体、社会机构的诚信和个人的安全。
《哈佛商业评论》英文版高级编辑斯科特·贝瑞纳托在采访尼森鲍姆时,谈到了同意的概念、对隐私的恰当定义以及将隐私归类于道德问题的原因。出于对表述清晰度和篇幅的考虑,本次对话经过编辑,以下为节选内容。
糟糕的同意
HBR:每每谈到同意作为一种隐私机制的概念,你的语气里都透出沮丧。为什么?
尼森鲍姆:嗯,那只是(停顿半晌)——这么说吧,同意的操作方式很糟糕。举例来说,作为GDPR中的一分子,我们现在总会看到一些弹出框,显示“嘿,我们使用cookies——点击此处”。这根本没用。你不知道你在做什么,同意对方对你做出什么。有效的选项应该是,“我同意你使用cookies追踪我”“我不想被追踪,但还想享受服务”或“本次交易使用cookies没关系,但清除所有不必要数据并不再分享给他人”。但上述选项都没有提供。这算哪门子选择(对比单纯的挑选)呢?
现在闹出的“同意”笑话可能会造成更大伤害,因为我们会对自己放弃的有效管控有误解和内疚感——我们太无知了,不知道有其他管控方法,还渴望或者说需要对方提供的服务。有一点可以肯定,同意依然对尊重他人隐私有关键意义。有些情况下,的确,同意极其关键。但我们现在还没有真正意义上的同意。
对我来说很简单。我选择在方框里打对钩。
你这样想:如果我向你要邮政编码,你也同意给我,那么你同意的是什么?
我是出于某种目的,才同意让你使用我的邮政编码,比如为了营销吧。
也许。但你是同意将邮政编码分享给我,还是允许定向营销?我可以把你的邮政编码和其他与你相关的信息结合起来,进而推断你的名字、准确地址和电话号码。你同意这些吗?你会吗?我可以基于你所在社区给你创建财务档案。你同意牵涉其中吗?我还能根据你和我的对话,有针对性地给你的邻居投放政治广告。你同意吗?
算法越来越复杂了。
特别是将有意义的自然语言词汇翻译成对应的机器语言术语时。你会收到询问是否可以收集位置数据的弹出框。什么是位置数据?位置可能在你的设备中有特定的操作方式,比如GPS的经纬度。但我还可以用其他很多方式推断你的位置。位置数据可通过IP地址获取。或者当你在查询飞机到达时间时。假设飞机从巴黎起飞时你就开始讨论本次航班信息,你给朋友发短信,“我三点钟在A航站楼接你”。你的地理位置没有被追踪。你同意提交“这一”位置数据吗?你同意的是“位置”还是“GPS坐标”?
你可能会认为,消费者和机器(在上述案例中是设备或应用程序)对位置的定义是一样的,即精准的GPS坐标。但事实并非如此。我和同事在研究项目中发现,相比分享经纬度,人们分享“在医院”“在某商店”等有语义内容的位置数据时不安情绪要强烈得多。如果你告诉受试者你可以从位置数据中推断出什么信息,他们会受到更大惊吓。所以仅仅让消费者同意获取其位置,不等于为他们提供了做出知情选择所需的详细信息。
所以消费者不知道他们同意的是什么,数据收集者不能说明将如何使用信息,而双方可能无法就自己真正同意分享的信息达成一致。现在这些问题似乎都很棘手。
即便你想要达成完全透明的协议,也不可能做到。有些公司虽然意图良好,但并不了解收集到数据后会出现的所有状况,特别是消费者并未做出最佳判断,而是屈从于在线追踪和行为定向压力的情况。公司不知道数据的去向和用途。形势总在变化。一方面,要求所有用途都得到同意并不合理;这也许避免了负面事件,但也不会有积极效果。假如最新科学表明,某种药性或一组药性与特定的癌症治疗方案存在联系,怎么办呢?要求同意会造成难以克服的障碍。
但另一方面,不管将来数据用途如何都要获得同意,这究竟意味着什么?假设某外科医生向患者详细解释手术的实施过程,然后问:“你同意进行这个手术吗?”这时我们要是以为同意是妨碍手术和结果的唯一因素,那就是自欺欺人了。多数人都会同意,原因并非我们极其清楚手术的细节和后果,而是我们信任这些教育和培训外科医生的机构,相信医学;至少我们还相信,医院和外科医生为了自身利益,会争取获得美誉并避免被起诉。
我们并非不知道同意的意义;现在的情况是,我们根本不可能搞清楚“同意”的真正含义。
你的声音里透着激动。
别总想着同意了!不可能,而且不正确。我要礼貌地,同时也强烈地对同事的观点表示反对——他们认为,逐步改进同意机制才是解决方案。我觉得,在这个数字技术的年代,界定“真正的”同意很难,甚至是不可能的,而且到最后,这就不仅仅是个隐私问题了!以剑桥分析公司为例。过去有见地的人会抱怨:“Facebook在未经同意的情况下分享信息。”但这真是同意的问题吗?基于人们一直以来的全部行为,我向你保证,如果这些公司之前选择征求同意,就能获得同意。这并非令我们愤怒的一点。真正让我们义愤填膺的是剑桥分析现在和过去对民主机构做出的事,以及懦弱的Facebook毫无反应。同意本来并不重要,完全可以轻易达成。
我们必须关注依旧依赖同意,但又不完全依赖同意的措施,也就是“后同意”(postconsent)措施。一旦我们认同,同意是种不合理的保障措施,就会提出以下问题:“我们现在向哪个方向改进?社会该如何处理隐私和数据收集问题?”
背景和数据流
所以我的问题也是:我们现在向哪个方向改进?如果同意无效,那什么有效?
在我的书中,我赞同这样一种观点:隐私是种平衡的价值。隐私提升数据主体的利益——注意是利益,而不仅仅是“已知偏好”。但我们不能局限于数据主体的利益,必须考虑到对更多相关方的影响,而他们的利益可能相互冲突。有些经济学家称,只基于利益做分析就够了。但我要更进一步,不局限于个人和个体利益相关人,研究更大范围内的影响。和乔治梅森大学的教授普里斯·里根(Pris Regan)一样,我们也强调隐私的社会价值。正确的隐私概念明确隐私对提升社会价值(如教育、争议、自由和自主权等)的意义。最后,隐私强调情境或者说机构的重要性。个体同意也许是针对已知偏好的机制,甚至可能是提升利益的机制,但隐私对谨慎限制数据流、提高社会和情境(或特定行业)重要性的关键意义不容忽视。
你多次提到“数据流”这一术语。我一直认为隐私就是信息拥有者和想要获得信息者之间的交易。你有不同看法吗?
我对隐私的定义是“信息的正当流动”(如果你愿意,也可以说是“数据”)。一想到河流,你就能想出多种改变流向的方式。我们会为不同目的,用不同手段截流、修坝或改道。斯科特,你跟我要电话号码,然后我给你了。即便在这种简单交易中,我们之间也有数据流,而且这种流动受同意限制,因为你会礼貌地询问我的意愿。我知道,你可能已经通过其他合法或非法(比如侵犯隐私)途径得知我的号码,但数据流不会相同。此外,我会说,我期望你别把我的电话号码分享给其他人,不仅因为法律或我明确禁止你这样做,还因为我们对机密性的理解达成默契,或者说规范。你可以再进一步推断,在上述情况下以及在我们身处的职位上,这样的行为对增强信任和表达尊重有重要意义。
不同数据流的限制因素也不尽相同。如果法官要求获得信息,那就是种命令。或者你在填写纳税申报表时,必须依法提供多方面信息。你对这些交易没有决定权,这是法定义务。美国国家税务局(IRS)的行政范围也有限:我们都知道,除非在极端情况下,否则税务局不能泄漏报税信息。夏洛克·福尔摩斯(Sherlock Holmes)并非通过交易获得数据。他只是在推断数据。这是另一种信息流动;考虑到机器学习已经开始推断我们的个人数据了,这种流动对我们的评估会越来越重要。
在情境完整性理论中(我刚刚已经大致介绍了内容),信息流动还处在初级阶段,只是构成隐私的基本要素。确切地说,该理论用五种参数——发送者、接收者、主体、信息类型和传递原则,来界定数据流,可以有效评估数据流是否威胁到隐私。总而言之,根据情境完整性理论,正当的信息流动符合公认的信息规范。该理论更支持既有规范,或者说基本反映了多数人的期望,但考虑到数字技术带来的众多变革和挑战,本理论也允许规范有一定改变(有时缓慢,有时迅速),原因并非科技公司强迫我们做出改变,而是改变会提升利益和价值观。
合理限制基于情境吗?你有时修坝,有时改道,还有时顺其自然?
是的,就是这样。隐私要求对数据流有合理限制,通常是在数据主体和数据收集者之间。但这些限制也可以应用于第三方、数据收集者和其他与数据主体没有直接关联的人之间。因此,美国国家税务局可能不会将候选人的信息分享给政治对手,但教师有义务通知家长他们十岁孩子的学习成绩,不管这些学生愿意与否。正当流动是关键中的关键。
我一直以为,对隐私的恰当定义是有权在自认为恰当的时机有选择性地表露自我。重要的是,个体有权利这样做。
不!我认为,我们不能只基于个人偏好或利益,判断什么值得保护。我想要辩护的隐私意义不只关乎于我作为一个用户、消费者、公民和家庭成员想要的权利。的确,可能在特定类型的关系中,你的定义是合理的。比如在友情或与泛泛之交的关系中,你会选择分享哪些信息。在求职面试中,虽然求职者可以有选择性地透露特定信息,比如宗教信仰,但若是过往工作经历这样的信息,情况可能就不一样了。但在我看来,如果我们的基本认知是,隐私是个人有选择性透露信息的权利,那从一开始就会误入歧途。我可以想象到的案例是,你会认为,不论有没有经过同意和是否符合他人的利益,都可以建立对方的档案——我们不是为了获得其他价值而交易隐私,而是因为隐私权已经在交易中,或者说是平衡的。
隐私和大局利益
隐私对你来说是个道德问题吗?是否有一些数据收集措施即便创造了价值或者获得了我们的同意,但本身就是错的呢?
是的,隐私是种有道德比重的价值,但请允许我将你的问题一分为二。对第一个问题:是否有些数据收集措施即便得到数据主体的同意,但本身并不正当,答案是肯定的。你只要仔细查看我们每个人都会遇到,也没有明确表示知情的大量“隐私”政策,就明白了。监管者对此熟视无睹,因为虽然数据主体会受到小伤害和侮辱,但企业能得到的好处要大得多——这对他们的说服力更大。换句话说,利大于弊,虽然利益分配不平均。但这里还有更深层次、极其费解的原因。
环境保护的例子有助于了解这一问题。假设我拥有一片林地与一家购买和砍伐原木的造纸厂。单从商业角度看的话,我可能认为这是不错的生意。但如果考虑到未来成本、外部成本以及所有不只会影响到交易双方的因素,那么砍伐森林就是个问题。
我认为,即便是追求实际回报的经济学家也会认同上述观点;他们可以对未来和外部成本进行缜密的经济分析。就隐私而言,我们面对的棘手问题包括,个体同意在分享信息时,会在某种形式上损害到与他们有关系的人的利益,不管是社交网络、血缘关系还是共享档案中的人。
在哪些情况下,你认为隐私政策应关注大局利益,而不仅仅是保护个人?
有些经济学家会这样评价社交媒体平台,“有些人专门适合在这上面榨取价值”,然后就没有其他评语了。但一旦整个社会都知道,我们现在的政策导致系统性不平衡,甚至可能威胁到重要社会机构,那么情况就要有所转变了。目前我们认同,社交媒体平台只基于用户个人使用本平台的事实,就有权获得用户数据,但我们需要认真反思这一观点。虽然这些平台上仍有大量未开发的价值,但社会危害的可能性同样存在。我们必须重新调整社会政策,在将危害最小化的同时更均衡地分配利益。
你的意思是,让所有人,不仅仅是数据收集者,都能获得数据中的价值?比如分享医疗数据,从而改进公共医疗?
是的。实际上,这是我最喜欢的例子之一。保险公司能获得和患者相关的详尽且高度结构化的数据。美国法律规定,他们能够并有权使用这个有“巨大”价值的大型数据库。现在假设我们制定假政策,允许其他组织获取信息,只要他们能给社会攫取价值——换句话说,为公众的利益,实现更合理定价、更精准的疾病监测和对预后治疗有更深入的了解等。这种授权对保险公司可能不利,而且保险公司也不愿意提供资源,但这样做对社会有益。目前我们允许保险公司全权决定谁有权获得数据,对其他主导“数据圈”的组织也一样。其中机会成本非常惊人。
我不是说,这些社会利益唾手可得。这是我们此前从来未以这样方式遇到的挑战,但也是我们面对的艰巨挑战。现在不要再绞尽脑汁思考如何完善同意机制了;现在的有效方法已经说明合理限制数据流的因素,公平分摊成本和利益,并强化多个社会方面的目标和价值观,包括卫生、民主制度、教育、商务、朋友和亲人等。
斯科特·贝瑞纳托是《哈佛商业评论》英文版高级编辑,著有《好图表:让数据可视化更智能并有说服力的HBR指南》(Good Charts:The HBR Guide to Making Smarter,More Persuasive Data Visualizations,2016出版)。
美好数字社会的蓝图
对个人和平台而言,未来需要根本性的经济改革。
作者是杰伦·拉尼尔(Jaron Lanier)和格伦·韦尔(E.Glen Weyl)
数字转型正在重塑人类世界,但几乎没有人满足于现在的进度。在媒体界尤为如此:定向广告的主流模式源于数据监控并用于赞助对大众开放的公共服务,比如社交媒体和搜索,现在逐渐被视为不可持续且不受欢迎的模式。
如今,互联网巨头向希望影响网络用户的第三方收取费用,从而将人与人之间的连接商业化。结果是互联网和社会都建立在操控手段上,而非共识话语。在这个将影响不知情者定为首要目标的系统中,各种不正当手段充斥了整个数字世界,导致隐私被侵犯、选举受操纵、个人焦虑和社会冲突。
该系统还让众多大型科技公司变得极其强势。一个典型案例即谷歌旗下的互联网巨头YouTube,也是我们所谓的“海妖服务器”(siren server,指像海妖一样向网络用户施展魅惑力,获得海量数据和免费劳动的公司——译者注)之一。数字组织往往能引发网络效应,而借助这一优势,YouTube控制了数字视频的制作和消费。该公司既是卖方垄断者,也是买方垄断者(唯一的数据购买者),决定给哪些内容生产者付费,以及数十亿用户会消费哪些内容。
科技巨头的影响力太大了,已经像跨国政府一样左右未来的走向,各国政府都相形见绌。比如Facebook和谷歌实际上已经成为最关键的中介,单方面决定了各大发达民主国家中自由言论和选举操纵之间的平衡。
与此同时,市场参与者的机构数量普遍减少,用科技行业的夸张言辞讲就是,人工智能(AI)和自动化会带来下一波失业潮。无条件基本收入(universal basic income)的倡议者担心人类会逐渐失去价值,经济机构越来越少,因此变得更加激进。他们的夸张言论只会造成两种后果:1)尽管科技进步了,但贫困现象普遍存在;2)国家集中管控大量财富,通过社会财富基金保证公民获得无条件基本收入。但严重不平等和我们所谓的“全自动化奢侈共产主义”都是种“反乌托邦”——权力过度集中,降低或忽视了数据创造者的机制,就像家庭中“女性工作”的市场价值长期遭到忽视和贬低一样。
我们无助地看着更多选举成为多方势力折中的结果、不公的社会分工扩展、入侵式数据监控增加、更多工人失去保障,我们开始认为自己已经束手无策,最终陷入更深的绝望。
但我们还有其他办法:互联网用户即客户和卖家的新兴商业模式。在未来以信息为中心的经济中,数据创造者直接交易自己的数据价值。第一方之间直接购买和销售信息价值的形式,会取代向第三方出售监控和劝导服务的模式。在这种经济形势下,平台不仅不会萎缩,还能急速发展。但平台的利润率很可能降低,因为更多价值返还给数据创造者。最重要的是,数据市场会让数据创造者重新获得尊严,而他们会成为有尊严的信息经济中的核心。
上述模式已经多年来引发各界广泛讨论。我们在本文中探讨了这些模式落地所需的商业和社会结构,并以此为基础勾勒出未来世界。此外,我们倡议建立一个更井然有序的市场。市场没有秩序的话,任何纠正措施都不能生效。
数据尊严
有秩序的市场是真正多元、开放线上社会的市场经济。人们会得到自身数据的酬金,同时要支付含有其他人数据服务的费用。个体的注意力受自己定义的兴趣引导,而非接受广告商等其他第三方赞助、操纵力极强的平台。平台得到高质量数据,用这些数据训练机器学习系统,因此能够将更高质量的服务卖给企业和个人,既提升了他们的生产率,自己也能获得更高收入。给服务质量打分定价的是用户,而非想要影响用户的第三方。如果客户和用户是同一人,那么开放的市场与开放的社会之间共性会更多。
格伦将这种真正的信息市场经济概念称为“数据即劳动力”和“自由激进主义”,而杰伦称之为“人文主义数字经济学”和“企业民主制”。我们在本文中使用了政治争议性不大的“数据尊严”(data dignity)。这个词将击败20世纪极权主义的关键概念“人类尊严”翻译到当代背景中:我们的数据需要摆脱新式极权的桎梏。
我们理解的“数据”这个词涵盖了大多数数字活动,既包括有意识创造的娱乐数据,比如YouTube视频或社交媒体模因(meme),也包括通过监控或生物传感器收集到的非刻意生产的数据,比如地理位置或新陈代谢记录。其他案例包括给翻译引擎训练软件的语言和实时数据流,比如Skype上的音乐课。
所有这些数据对生产者来说都有价值。此外,如果生产者有权控制这种价值,激励因素就会转变;市场参与者会努力劝说买家给自己投资,而不是付费给垄断平台,以便操纵目标对象。
举例来说,自动语言翻译服务让专业人类翻译的未来就业形势更加严峻,但自动服务要求每天都从失业的人那里获得海量新数据,从而及时了解到时事和流行文化等。译者可能认为,他们在无偿为网友提供外国电影的字幕,对自己提供的价值一无所知。如果这些译者明确知道了自身价值,就可以靠自己的服务获得报酬,为提供更优质的数据感到自豪,并协助提高自动服务的质量。
数字世界的整个架构都会逐渐变得更清晰和光明正大。乌托邦显然不是我们想要的结果,但我们认为这是目前唯一可行的解决方案,能够避免过多权力以不确定和不可持续的方式集中到数字网络中。
MID组织
实现数据尊严的最大挑战是大型科技平台和数据收集对象(平台用户)之间的鸿沟。如果我们只要求科技巨头做出改变,改变就不会发生:一方面,利益纠纷太多,另一方面,这些平台势必会导致权力过度集中,这不利于市场竞争和社会开放。个人也不能仅凭一己之力得到数据尊严,即便向政府请愿,也无济于事,因为网络效应给了平台过多权力,而数字经济的复杂性让监管无法深入细节。
为实现数据尊严,我们需要一个中等体量的外围组织来缩小差距。我们将这些组织称为“个人数据中介”(mediators of individual data,简称MID)。MID是一群志愿者;他们的内部规定从多方面代表了成员的初衷。MID协商数据版权费或薪酬,将集体谈判权交给贡献重要数据的人。这类组织还提高标准并建立有独特价值、代表数据生产者身份的品牌。MID往往履行常规性会计、法律和支付职责,但也会参与培训和教练工作。他们帮助成员集中原本分散的精力,是出于对其利益的考虑,并没有其他不可告人的动机,比如定向营销。
MID并非革命性创新概念。现实世界中大量组织都有同样的结构和重要性。企业、工会和消费者协会、农民合作社、大学、共同基金、保险集团、同业公会、合作伙伴、出版商、专业协会,甚至运动队这样的组织都对尊严社会有关键意义,实际上也起到了MID的作用。
一些对民主市场协会有深刻洞察的思想家也在强调这些组织的重要性。亚历西斯·德·托克维尔(Alexis de Tocqueville)观察到,社区组织对保持美国的自由有重大意义。韦布夫妇(Sidney and Beatrice Webb)认为,工会是大型公司得以有效运营的关键因素,因为工会给了高效工人发声的权利。汉娜·阿伦特(Hannah Arendt)指出,两次世界大战之间盛行的极端个人主义和社会组织的崩塌导致20世纪30年代极权主义兴起。
有些MID模式往往会让人联想到政治左派,有些和右派的立场更一致。在发达的信息经济中,这一区别显得没那么重要了。用左派的语言形容就是:一些MID会和传统工人协会一样,重新分配最优秀员工的成果并广泛分享已获收入。其他组织,如艺术家版税管理机构中的美国作曲家、作词家及音乐出版商协会(ASCAP),可能允许个人支付的方式更多一些。但我们也可以用右派的语言描述:一些MID可能很难加入,和晋升著名律所的合伙人一样难。
MID会改变当前信息经济的趋势:最初平台表现出极端个人主义的意识形态,一方面印证了阿伦特提到的极端个人主义的极权主义危害,另一方面导致平台权力越来越大,而且集中程度更高了。举例来说,Facebook早期的“快速前进、打破常规”口号实际上说明了互联网时代之前的MID已经式微,比如面向创意人才的出版商和工会。
问题不仅仅只是权力过度集中。算法取代了已经被打破的社会结构,并进行定向营销;这些趋势将个人划入不同组别中。提高在线“参与度”的激励措施涌现,进而加剧社会分裂,因为对“他者”的怀疑更严重了。当前网络架构出现的趋势太明显了,这种结果已经变成了信息战中最常被利用的工具:贫富阶层都被强调和鼓励社会分化的恶意社交媒体运动扰乱。
自组织MID催生不同的激励措施。个人可以加入多个不同的MID。MID之间会有冲突,但个人可以拥护不同的MID。这就像在互联网出现之前,两个人会为利益存在冲突的店铺工作,但去的教堂都一样;或者两个人选择不同的汽车保险公司,但投资了同一只共同基金。同理,一个人可以参加多个MID(而非平台),他最后的身份和利益关系会很复杂,不会有遭到操控并贴好标签的身份供平台做定向营销。
自我们开始讨论MID以来,很多想要创建MID的企业家已经数千次咨询这一问题。他们似乎零零散散已经投入了数十亿美元。多数来咨询的组织都是初创科技公司,但我们也为非政府组织、工会、非营利组织、科技公司的企业活动策划部门,可能也包括新政府机构,提供过建议。
我们在这里不会具体讨论某项提议,但可以介绍一下我们在这些方案中看到的趋势。以下为几种典型的提案类型:
·有些企业家会基于共同利益给目标对象分组,以便在获取该组对象数据时谈妥一个合理价格。我们现在想到的两个例子是有同样病症的患者,和为自动翻译引擎提供信息的语言翻译。但我们对很多这样的做法都持怀疑态度,因为所有资金都来自数据销售,导致激励因素和现在的数据中间商一样,都建立在滥用成员隐私数据和信任的代价之上。
·有些关注技术的组织希望使用区块链这样的工具来管理数据起源、渠道和流动——管理数据价值的第一步。我们怀疑,这些项目强调的高度去中心化会为数据创造者提供实现公平交易所需的谈判权或信息安全。
·有些想要对抗大型科技公司的组织希望自身体量和权力都大到可以像科技公司一样运营,比如经营一个社交网络非营利平台,但也承诺认可并尊重成员。你可以称他们为“开明的海妖服务器”。我们对他们持怀疑态度,因为在我们看来,在MID缺失的前提下,所有海妖服务器都不可避免地采用不正当的激励措施。
·有些希望取代优步等零工经济平台的集体企业想要建立属于打工者和数据创造者的平台。我们担心,这样做会将多数不认为自己在零工经济中打工的数据创造者拒之门外,因此不可能招募到关键盟友,创建有广泛群众基础的社会运动。
·有些送礼经济或者说赞助经济中的赢家想要这一市场实现指数级增长,直到成为多数人类的物资来源。我们担心,历史经验表明,在相对狭小和高级的社区外,礼物经济会导致混乱,而且主导者往往会变成利用他人慷慨心理、权势过大的机构。
MID原则
我们很高兴看到,目前大家对MID的浓厚兴趣和展开的相关活动。可惜,尽管有些提议极富创意且实用,但几乎所有提案在关键层面上都有欠缺。很明显,要想成功开展MID项目,创始人需要在流程方面得到更明确的指导。我们在下文中列出了八大原则(或者说要求),指导MID创始人基于对未来要求的合理猜测,对自身设计进行测试。
1.信托责任。MID应该在法律、经济和结构层面上,都成为数据创造者或数据受监测者的真正受托人。
法律上,MID应负起只属于自己的首要信托责任,为数据创造者争取最大的利益,即使这些创造者不一定非要完全了解他们的最大利益是什么。
经济上,MID接受资助时应避免利益冲突,否则就无法成为真正的受托人。举例来说,MID不能只按交易的数据量决定相应收取多少费用,这会影响到组织的激励措施——从成员的最大利益出发,保护其隐私不再是首要目标。
结构上,MID应隔绝与自身有必然利益冲突的组织,比如数据消费者。使命驱动型的非营利组织或数据工人合作社虽然不是唯一的可行方案,但还是有很大吸引力。使用这种模式,或者说打着“数据联盟”旗号的组织在欧洲和美国都成立了。
海妖服务器不可能成为受托人;他们同时为太多客户提供服务,就像有些财务顾问,他们可能是共同基金家族中一分子,因此会重点照顾和自己有关系,但不符合客户最大利益的基金。这种利益冲突不仅存在于现在的互联网中,而且是最普遍的现象之一。我们必须对此做出改革。如果企业的收入主要来自广告营销(如谷歌和Facebook),同时还担任营销目标对象的受托人,这就太不可思议了。在数据治理或金融等高度不透明的领域中,建立专门处理受托业务且没有利益冲突的独立受托人极为关键。权力中心化的跨国集团不能肩负这一职责,就像一个律师不能代表法律纠纷案中的控辩两方一样。
指望监管机构通过严密监管来处理这些冲突也不现实。如果科技高管出席政府机构的听证会,他们只会嘲讽政客和监管机构跟不上科技快速迭代的趋势,不能充分了解技术的进步。但也正是因为现在数字经验过于庞杂、快速多变、技术复杂、心理影响大,个体必须获得与肩负受托责任的代表和顾问进行对话的渠道。MID可以是这些受托人之一。MID不会有利益冲突的问题,反而鼓励竞争,并能代表对立的观念和利益集团。
如果没有受托人的管控,海妖服务器必然会采取反乌托邦视角,自上而下地控制社会。这体现在中国信用体系中,但也包括在某些美国平台思维中,比如谷歌臭名昭著的“自私的数据账本”(Selfish Ledger)概念;用户被描述成谷歌真正客户——数据的被动仆人。
2.质量标准。MID会重新定义廉正、高标准、问责和公认成就,并强化这些特点。
以我们现在所谓的“假新闻”为例。海妖服务器不可能选择符合自己偏好且遵守标准的新闻源,因为这会被视为不公平竞争。现在对抗假新闻的流行观点是,让推特、谷歌或Facebook利用众包或雇用大量低收入工人,给特定的不当言论种类降级或加注。但目前还没有方法,在不触犯一些利益的前提下有效遏制假新闻。比如有些政客对如何界定假新闻出了名地持有异议。
从更大范围看,平台已经同意满足用户需求:他们会限制淫秽、血腥、煽动性和残暴等类型的内容。但你不可能有一整套让数十亿人都满意的标准,即使是最具善意的海妖服务器也不能让每个人对每件事都满意。
政府可以实行让每个人都受益的规则,比如刑法和食品安全监管法规,但一旦规则越过了公认的普遍必然性的界限,执法就会变成专制统治。如果批评家要求Facebook等平台禁止某种形式的言论,他们也会让平台更专制,就像政府要求人民必须保持礼貌也是种专制统治一样。问题的根源是,海妖服务器有过多中心权力。MID分散这种权力,并为一个可能无解的难题开辟了一条新路径。
MID的前身有企业、工会和大学;如果没有这些组织,社会可能就不会进步。其他担当MID职责的实体也实行质量标准,比如要求同行评审中使用科学方法的科学期刊,以及实行行为守则和工作标准的专业协会。评论家观察到,曾一定程度上提高文明度和包容度,并促进真实报道的社会机构到了数据时代开始式微,而MID可以重新加强其作用。
并非所有MID都极为优秀,但成功的精英MID会有严格且公平的系统,评估和追踪成员所提供数据的质量,维持成员声誉并激励他们提供并持续改进数据质量。这一点意义重大,不仅有助于确保和数据消费者谈判中处在有利位置,还能提高数据生产者能力和声誉,从而“提升级别”,赚到更多钱。MID获得更大权力后,有足够的影响力基于标准和质量,将用户的数据出售给数据消费者,就像哈佛等名牌大学用自己的声誉和《哈佛商业评论》等市场出版物做交易一样。
3.不可转让的起源。尽管MID应有效促进数据流动的高值化利用,但必须禁止数据(特别是敏感的个人数据)被永久出售并避免成员失去对数据的控制。虽然知识产权可以被授权,但作者不能出售自己作品中的道德利益。
同样,只要技术上具有可行性,交易都应该说明数据的销售渠道和明确用途,避免购买者对数据有其他获取渠道和用途。近期密码学和“差别隐私”领域的进步会加速以下图景的实现:完全分离对重要AI软件应用数据的使用,与对用于更大目标的底层数据的管控。任何不够明确的数据应用都必须有明确界定并被永久标注,这样数据创造者就可以索要一部分未来收入,并有权拒绝未来数据用于与自身合法隐私利益相冲突的目标。数据不可能嵌入一些中间系统,然后不断被用于更大的目标,却连些许返还给最初创造者的相关价值都没有。
注意:在功能方面,当前用于追踪用户和定制个性化营销的基础设施工程,和未来基于个人创造数据计算个人应收取金额的模型类似。特别是在付款、安保和追踪溯源方面,尽管我们需要新的工程设计来实现数据尊严,但两种模式在工程方面十分相似。
4.利益共享。MID将成为社会和经济中的关键部分。为达到这一目标,监管不仅必要,也应当受到欢迎。
举例来说,MID应确保合理数额的数据价值返还给创造者。合理数额近乎于70%,是工人所得占国民收入的历史份额。目前科技行业的劳动收入占比要低得多,只有5%到20%,而且取决于你看的是哪家公司。如果中介者模式不能将数据工作者的份额扩大到近70%,而且在结构上不能将多数价值返还给真正的数据创造者(而不是MID本身),就不会起到任何作用,或者会成为海妖服务器,对自身管理的数据有过多中心权力。
对MID的监管要借鉴劳动法、反垄断措施等先例,目标是保护代表弱势群体组织的权利,同时防止这些组织变得专制独裁。
5.能力和专业精神。MID要实现使命,就必须具备足够的专业知识。MID要有足够谨慎的管理,才能与数据客户进行可靠的谈判,客户才会将机密业务内容委托给MID并保持平等地位。要做到这点,MID需要用专业技术知识,构建支持自身独特属性的系统。最优秀的MID会开发智能能力,了解数据消费者使用数据的方式,从信息基本平等的立场出发讨论使用条款和条件。所有MID都要求员工审核并了解以成员名义授权的数据实际使用情况。
6.生理现实。海妖服务器向外扩散风险。例如在零工经济中,工人必须“付出才能有收获”——每次打工都如此。你不能生病,否则麻烦会很大,也很难计划退休。美国尤其如此,因为医疗保险并未普及。
MID应努力为成员创造体现人类生命周期本质的成果,而不仅是将目光锁定在相对于假想中的机器工人的“公平”定量交易,因为机器人不会衰老,需求也不会随时间的推移而发生变化。
设计合理且管理良好的MID将鼓励成员利用数据建立越来越多的版权流,等到退休时,在多个MID中均具有会员资格的人就可以收取多种数据版权费,获得必要的保障。这类似于受托财务顾问指导客户如何分散投资。
未来人们到退休年龄时,将从之前参与的数百个数据计划(配文字的图片、对产品的评论等)中获得一小笔收入。这些报酬是基于我们认为一个人本应得到的收入计算所得。但大多数人会有些专业领域,而专业在一生中也会发生变化。例如,某护士加入MID为护理机器人的机器学习计划提供数据,她会持续获得版权费,即便有新一代护士提供新想法和新数据,并逐渐替代原有信息。这位护士还可能加入一个标记和推广寿司新美学的MID,即连续几年带领寿司机器人大厨到各地展现厨艺,直到现在还有一些粉丝。另一位到退休年龄的人获得各种版权收入的途径可能是:在大学期间创建了标准虚拟现实体验,还曾创建嵌入商业人工智能的管理培训,或者多年混迹社交网络贡献的一系列文化小趣闻。(未来的情景听起来肯定会很虚幻,但如果我们只为最可能出现的未来做准备,就根本不算在做准备。)
7.认知现实。我们不能强迫MID成员了解艰深晦涩的术语和过于复杂的决策。当成员面对大量条款和条件,或者太多复杂的选择时,会对自己看到的内容照单全收。所以这种做法毫无意义。(不幸的是,在当前的同意导向型网络关系中,这种情况经常发生。)
算法和设计必须有所创新,但一些旧观点同样有帮助。比如所有MID成员都可以用一个虚拟旋钮,给自己智能手机中的数据定价,那么大量决策都能压缩成单个参数。定价不会确定绝对价格,只是个偏差因素,MID在以所有成员的名义计算价值时会考虑到这一因素。重视隐私(而非财富)的个人可能会将旋钮调为最高价格,让个人数据贵到公司无力购买。初出茅庐、希望自我推销的年轻人可能会把价格定得很低。MID可能设置上限和下限。想获得最大利润的人也许会将旋钮保持在中间位置,但他们会预测市场波动情况并可能为相关服务付费,随后根据预测频繁调整定价。举例来说,一些MID可能有一两个与成员时间价值相关的其他旋钮,但针对个体的措施必须可控,而且选择要简单、数量尽可能少。
没有明确规定,中介就不可能存在,MID必须尽最大可能做好受托人并维护成员尊严。医疗领域的知情同意理念可作为先例——但执行方式不必借鉴,因为我们的信息系统比医疗系统复杂得多。
8.持久性。MID的设计理念不应是永远存在(比如像国家一样),而应是存在的时间超过人的寿命(如保险公司)。原因在于,MID将成为代际数字智慧和情境的守护者。
MID之间要形成持久且可靠的关系。代表护士的MID应与代表生物数据科学家的MID保持数十年的良好关系,而后者也应与代表新生物传感器潜在受试者的MID保持良好关系。MID应形成价值链,就像发达市场的参与者一样。
如何才能防止相互依存的MID合并为“超级MID”(实际上也就是海妖服务器)?虽然早期的MID或许有意愿扩大规模、集中权力,从而削弱海妖服务器的实力,但如果MID不断努力削减单边决定权并保持谈判权,社会和经济都会受益无穷。
也许反垄断法有助于管控大型MID。也许限制MID成员互相攻击的规则将催生大量规模更小的MID,就像律所不能代表对方的客户一样。其他强调权力管控的方法包括:使用基于区块链的透明协作设备,进行数据罢工(data strike,指多名用户同时断开数据接口,把平台逼到谈判桌前),以及在内部推广新的企业家精神——这些方法虽然有可能成功,但前景并不明朗。
此处可用神经网络比喻。神经网络需要通过神经元的中间层来收集反馈。没有中间层的话,神经网络就无法学习。中间层是机器学习系统中最持久的部分,即价值载体。MID就会起到中间层的作用,承载着整个经济乃至全社会的价值。
改进互联网的其他想法
在市场和政治辩论(两者共同话题不断增加)中,MID以外的其他纠正措施已经得到广泛宣传。MID与以下观点的比较会进一步激励各界用MID解决问题。
自我监管。越来越多用户要求海妖服务器规范免费用户和营销客户的言论和行为。消费者和积极分子要求平台驱逐仇恨团体、虐待狂、色情作品作者等就属于此类。
平台通过自我监管,在限制最恶劣的残暴内容方面取得了一些成功。虽然此举可能解决某些心理和社会堕落问题,但平台对社会的权力不但没有受到限制,还增长了。最后的结果只能是审查和混乱同时存在。
大型平台典型的开放方式并不成熟,而且没什么作用,也不能自我监管。在当前情况下,短期内无休止的观点争锋造就了内容。比如在付费产品只有营销和说服的经济里,煽动性内容往往最受关注。随着推荐引擎主导地位的确立,萌猫视频或用来安抚幼童的视频等“治愈系”互联网内容,往往会混入令人不安或欺骗性的内容里。最终文明对话被大量不文明沟通驱逐,社会文明也会受到影响。
但公司不会受到损害。真要承担责任的话,平台会因自我监管不足而受到处罚。在与信息战活动相关的账户或虚假账户遭到清理后,推特估值下降。与假新闻对抗的Facebook也经历了估值下跌的时期。这是因为自Facebook上市后,投资者给该平台估值的指标(如日活跃用户、点击量等)都被试图规范行为的平台限制了。虚假账户及其内容运作的目标是吸引注意力,提高点击量和回应数量,而这对平台也有利。这种运作方式带来的互动在华尔街看来,是“健康”的活动。奇怪的是,现在监管部门也在鼓励公司推广(而非取缔)这种模式。
但如果主流MID主动禁止仇恨言论和其他有害内容(参见上述第二条原则,“质量标准”),就没有太多完全遏制不良内容的原因,更不用对平台提出这样的要求了。我们会增加高质量内容,而不是遏制有害内容,因为高质量内容将有更多机会,而不会被全球混搭算法胡乱归类。
我们没有请求大公司管控言论和行为,而是诉诸常识和对言论自由的坚持。互联网出现之前同样有可怕的内容,但并没有将优质内容挤出报摊。原因在于,只要有机会反思,大多数人都没那么糟。一个和人差不多高的杂志架在筛选有用内容方面,比无穷尽的数字书库更高效。
MID保留了互联网和开放社会中都备受重视的价值观:所有社团都是自愿的,没有人会被审查。但与此同时,MID不同于它要取代的中央集权平台,成员不会同时就注意力展开竞争。MID很民主,也有秩序。
隐私监管。数字隐私监管可在特定情况下避免个人信息被滥用,我们对此并不表示反对,但这种监管不够系统,不以未来为导向,也没有改变经济激励因素,劝止越来越具创新性的侵犯隐私行为。这类监管与MID的大多数原则相左,特别是第七条原则,“认知现实”。
此外,侵犯隐私不足以彻底阐释清楚问题。脱离经济权利的隐私权就只能依赖同意的概念,而如果数据应用的技术含量过高、晦涩、不可预测且有心理操纵性,同意概念就没有意义了。认知现实是对隐私问题的最佳回答。一旦个人获得可以解释自己生活数据的工具,就会要求控制,也有能力控制数据。
隐私的概念没有恰当翻译到网络世界,因为海妖服务器定义了网络环境,也没有搭建真正的私人场所。这是抽象的数据隐私权难以行使的原因之一。没有人知道隐私权是否行使了。我们不得不信任平台,因为没有开发例行独立审核功能的时间和空间。这种环境往往会鼓励海妖服务器变得鬼鬼祟祟,并模糊数据起源。即使我们可以信任平台,数据的性质和应用也会以无法预测的方式继续演进,所以我们很难提前制定规则。
不过,将数据隐私权与商业权利联系起来,会激励会计师和律师跟踪数据的使用方式,并就数据的应用进行谈判。会计师和民事诉讼律师可能让人厌烦,但我们应记住这些职业出现的原因。在非市场社会中,只有警察执法;市场社会中则有民事诉讼。没有合同的话,所有干预都是自上而下的。行使隐私权是一种集权形式;分散的权力更有可能降低腐败的可能性。
最后,人们在数字生活中需要的并不是隐私最大化本身,就像他们在工作生活中需要的并非将享乐最大化一样。在这两种情况下,人们本质上需要的是不受打扰的权利:一种构建他人看到和了解的自己的理性能力,对自身须付出努力的合理限制,行使自我决定权的可行手段,对所放弃事物的合理补偿,以及支持追求意义和幸福的社会环境。
MID是帮助个体获得上述福利的自然结构。
技术去中心化。互联网改革者迫切要求搭建新架构,将对数字网络的影响力去中心化,而采取的机制往往是区块链。
在可能的情况下,通过技术架构去中心化确实有吸引力,但要撼动网络效应、认知负荷以及最初构建中心化的各路力量,这个想法还不成熟,也很难有效果。开源软件和“免费”媒体理念本应该有效实现权力去中心化,但一方面鼓励劳动力免费,另一方面又无法实现资本免费或控制平台,结果是单方面削减了劳动力势力,让操纵用户并提取数据的巨头公司从中渔利。
如今许多人相信区块链可以推动去中心化。相比开放软件社区,区块链社区内对经济激励措施的重视让我们看到更多希望。但我们必须解决网络效应的问题,以及个体很难自行处理使用条款的难题,否则推动完全去中心化反而会进一步削弱个人抵抗网络的能力。只要当权者,不管是政界还是网络世界的中央集权机构,拒绝(或不能)放弃权力,我们就必须加强MID等反对派组织的力量。
此外,虽然区块链有技术乌托邦式的愿景,但社会契约不能仅靠法规,就能实行。有时法规一定要与现实世界结合才能有效果,而结合点往往是出现腐败、诈骗和操纵的地方。MID必然会加强社会契约的力量。
对公司来说是好是坏?
科技巨头应欣然迎接由MID主导的未来,而非心怀畏惧。(我们都为科技巨头工作,也喜爱这些公司。)最后平台也是受益者。但我们估计MID会遇到阻力,以下是其中一些反驳观点:
人们想要免费。有人称,消费者对“免费”互联网已经有依赖性了,在这种情况下创建数据市场和MID世界根本不可能——用户不会为之前免费的东西付费。我们认为,实际经验已证明情况恰好相反。此前很多人认为,没人愿意为在线视频付费,但Netflix还是建立了这项业务。现在包括YouTube在内的多家免费视频网站都跟风提供了付费选项。类似案例还有苹果证明,用户会在应用商店消费。
此外,免费并非真正意义上的免费。消费者可能尚未将免费列入成本分析的考虑范围内(MID可以提供协助),但他们为承担数据监控和营销经济的巨大运营费用,支付的码流费用远超必要的消费数额,更不用提隐私泄露和信息失真的成本了。
数据价值可以忽略不计。一些经济学家认为,为数据支付的金额可以忽略不计;即便用户可以出售数据,花费的精力也得不到相应回报。MID的管理成本可能比收益还高。即使现有的商业模式不变,很多美国人在数据价值方面每年也可以赚500美元到1000美元不等(计算后得出)。
我们认为,这个估值还是偏低。估算过于保守,忽略了数据现有价值中有多少存在于账面以外。这就像在争辩说,因为女性做家务没有报酬,所以家务劳动就没有市场。事实上,女性进入职场后,巨大的家政服务市场就出现了。数字系统为世界增加价值,对此没人反对,只是到底增值多少尚无定论。
如果我们可以准确计算个人数据贡献的价值,就能知道整体经济价值,而随着数据输入质量的提高,整体价值还会大幅提升。此外,若AI经济如预期般迅速增长,那么数据价值可能迎来爆发,正如石油在新应用方式(如汽车)出现后,价值突然爆发一样。我们预估,未来即使AI只占总经济的10%,数据尊严中由AI支持的服务也可以为普通的美国四口之家带来两万美元的年收入(虽然他们可能也为数字服务支付额外费用)。
这还不是全部。MID主导的发达信息经济,会鼓励个人专攻目前尚未被定位为利基市场的领域。例如,喜欢徒步旅行的植物学家可能会加入MID,和其他成员一起整理欠发达地区树木的照片和数据。这些数据对林业公司、物业经理、松露猎人、气候变化方面的监管机构、在森林地带送快递的自动化无人机AI服务,以及许多其他服务都很有价值。未来会有很多种重要数据,或者说数据会更精确、有更明确的注释,进而发挥更大作用。市场的关键之处不仅在于将有限的蛋糕合理分配,还要将蛋糕做大。如果有人忽视了网络活动的价值,那就是忘记了开放市场的这一最基本福利。
我们认为,MID可能发掘和市场化的新价值,基本可抵消失业潮(自动化引发)的负面影响,并将劳动收入比重恢复至历史水平。我们不能保证,这一定会成为现实,但就可能性而言,假设有一天社会进步到不会再有物质匮乏的问题,那么全面自动化就会造成全面失业。(我们并不是说这种情况一定会出现;这只是个思想实验,但在技术文化里近乎普遍实现。)
我们在其他文献中提到过,如果社会没有提供数据,上述自动化就不可能实现。但这样的社会是否足够重视数据到进行融资吗?这就是商业规划理念的问题。如果社会中只有营销和说服的受众,那么数据肯定永远得不到充分重视。社会只能主要以非市场原则运作,而且权力会高度集中。但如果有客户与所有重要数据的形式都相关联,那么市场的价值将与其支持的社会等同,因为数据提升将是唯一的不足。很多人会提供有价值的数据吗,还是只有很少人会提供?目前,谷歌之类自称为在AI领域竞争的所谓海妖服务器正拼命收集每个人的数据。如果识别出某些人的数据不值得收集,就会毫不犹豫地忽视。但这不是全部真相。
MID威胁到平台的存亡。经济学家往往认为,数字平台与数据生产者之间是零和战争——你一点我一点地瓜分资源。我们的看法有所不同。
科技巨头在有数据尊严的世界中依然会发展得很好,只不过在更大的蛋糕上占了少一点份额而已。对更优质计算资源和数据工具的需求仍会很强劲。巨头不必再承担内容管理和数据验证的重负,而是外包给政治和经济上都更适合担负这些责任的MID生态系统。未来不会有每个人都可以躲藏在电子屏幕后与他人争斗的情况——我们不必忙于劝说彼此分享或相信哪些内容,数据尊严可更好地协调大多数市场参与者的利益。
事实上,数据尊严主要取决于大平台。数据尊严并非否定必然会强势扩散的网络效应,而是努力在最大程度上利用好网络效应。总之,MID支持的理性市场有助于解决技术反对派发起的关乎生死的挑战。如果我们找不到比现在更好的解决方案,反对势力会继续存在。
未来AI会消除对数据的需求。我们会听到一些消极声音,称未来AI将不需要人们提供更多数据,所以我们就不必担心,错过机会为AI实现自我维持之前这段短暂时间里收集的数据付费了。该观点不仅本身有待商榷,还回避了更深层次的问题。
所有发达经济体中都有越来越多行业,交易定价较为主观的商品和服务,例如化妆品、体育、娱乐、设计、时尚、旅游、艺术、新闻、评论和游戏等。这些都由人与人之间的价值表达构成,而谷歌和Facebook等巨头旗下的海妖服务器上交易的价值几乎都属于这一类别。
有关AI的虚妄言论会让人们忘了这一事实:主观行业永远都需要人类数据,因为它们做的就是人与人之间的数据价值交易。即使有朝一日所有电影都由AI执导、化妆服务都由机器人提供,未来AI的品位还是由人类决定。如果人们想保留自主意识,价值的本质仍然会是人类之间互相传递数据。
未来任何严重依赖信息技术且保持尊严的经济,都必须重视提供数据的人。这不能只停留在纸面,还要搭建相应的结构贯彻落实。我们需要的市场谈判权和安全保障机制要真正公平,支持并保护数据创造者的价值,而只有数据创造者群体形成MID这样的组织,才能实现这一愿景。
如果互联网不免费,穷人会被排除在外。Facebook等大型平台公司常提出另一反对意见:付费服务将穷人排除在外。这确实是个问题,但并不是新问题。付费书籍将穷人排除在外。用于寻找更多、更优质工作机会的私家车,将穷人排除在外。相比简单无效的价值估算,将市场与稳健的民主政策结合,才是更好的解决方案。正如公共图书馆提供书籍,公共交通提供了合理的私家车替代方案,货币化的互联网上也将出现类似机构。多数收费公司都尽可能扩大产品销售范围。举例来说,我们的雇主微软对旗下大多数产品都收费,而在较贫穷的国家普及这些产品时,会根据当地情况改动价格,收取合理费用。
此外,免费互联网服务的出现恰逢收入不平等急速加剧、工作收入份额下降之时。过去20年里,我们看到的新兴富裕阶层都是可以接触到世界最大计算机资源的人。免费的互联网并未真正服务于中产阶级利益,更不用说穷人了。
......
对改进互联网方法的讨论并不简单,主要原因在于,这方面的讨论通常发生在互联网中,而互联网早已被海妖服务器的系统占领,通过煽动用户情绪来提升参与度。这也意味着讨论会很快激烈起来,最后变成恶性攻击。
因此我们有意缓慢、详尽地阐述了论点。篇幅之所以如此长,在某些方面是为弥补能力的不足:我们无法一一答复新兴MID发给我们的大量问题,同时我们也愿意集中梳理所有的回应。
目前我们还没有看到一个能达到本文提出的所有数据尊严条件的项目提议。要想满足所有条件,创造力和冒险精神是必要因素。关于MID的讨论从基本原则开始。但随着相关知识的增加,条件肯定也会发生变化。
这些条件必须不断升级。互联网对人类各方面经验的影响实在太大了,如果我们还想有一丝尊严,就必须提出数据尊严的要求。
杰伦·拉尼尔是微软的首席技术官办公室最高联合科学家(OCTOPUS)、音乐家,并出版多部著作,包括《谁拥有未来?》(Who Owns the Future?)一书。格伦·韦尔是微软纽约研究院的首席研究员。他与埃里克·波斯纳(Eric Posner)合著并最新出版了《激进市场:为公正社会铲除资本主义和民主制度》(Radical Markets:Uprooting Capitalism and Democracy for a Just Society)一书。