新媒体与互联网研究(2023)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

一、网络内容审核的现状探讨

网络内容审核标准体系是指由政府主导建立的,由政府、平台及用户等多主体协作执行的,对网络内容进行检审、核查与治理,以保障网络内容的安全与清朗,推动网络内容生态长久发展。由此可见,网络内容审核涉及安全和发展两个价值取向,前者以后置处理为主,在监测到有害信息之后对网络内容及其发布主体实行管控措施;后者以前置工作为主,包括用户素质培育、舆情风险监测、优质内容创作引导等内容。

(一)“底线”思维下的内容审核模式

目前,我国网络审核以安全保障工作为主要取向,平台的审核工作也以守住内容“底线”为主要目标。从政策层面来看,20世纪以来,我国已经建立了较为全面的网络安全政策及法规体系:从1994年《计算机信息系统安全保护条例》出台,到2021年《关键信息基础设施安全保护条例》推行,我国基础网络安全体系逐渐建立。近年来《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》相继颁布,信息和数据安全得到了更为全面的法律保障。在网络信息安全保护日益强化的大环境下,网络内容安全保障体系也逐渐完善。2019年,《网络信息内容生态治理规定》(以下简称《规定》)推出,提出了违法及不良信息的判定标准以及优质信息的内容特征。2022年1月,《网络安全审查办法》出台,进一步强化了平台对安全相关信息的管理责任。可见,当前阶段网络内容审核标准体系主要围绕信息安全及国家安全建立和展开,针对互联网内容方面的潜在风险和潜在问题建立了较为全面的政策体系。同时,《规定》也涉及到了一部分内容发展层面的措施,要求平台对规定所列举的优质内容进行优先传播和呈现。

从平台层面来看,当前网络内容审核工作主要采取机器审核与人工审核相结合的方式。主体在平台中创作和发布的内容首先通过机器进行关键词初步匹配,未命中关键词的内容视为审核通过内容,直接发送至平台。机器检测到可能存在风险的内容进入人工复审环节,涉及违法违规的“底线”内容将被进行封禁和删除处理。一些具有模糊性的内容则进入第二轮人工审核环节,并根据内容可辨别难度的增加审核环节依次上递,最终确定对其处理方式。在审核内容层次方面,一些平台按照内容影响力进行优先级划分,重点关注“大V”等账号发布的内容,普通用户发布的内容在达到一定热度之后才会进入到平台审核库。对于谣言等信息内容,平台设置了相应的后置处理办法,包括设置谣言信息标签、建立辟谣平台、开启官方媒体辟谣权限等。总体来看,平台内容审核工作主要依据《规定》所列出的负面信息清单进行,集中审核力量处理“底线”问题,并进行必要的内容审核处理结果公示,同时配合相关优质内容的推荐工作。

(二)安全与发展的价值取向探讨

习近平总书记强调:“安全和发展是一体之两翼,驱动之双轮。”[3]统筹安全和发展两件大事,实现更高水平的安全和更高质量的发展,是社会主义事业的必然发展方向。网络内容审核工作中同样需要厘清安全与发展之间的关系,有研究指出,安全是网络内容治理中的基础向度,发展是治理的目标和要务。二者同等重要,但不一定能够兼得,国家在内容监管过程中的制度设计也反映着对这两方面取向的权重。[4]事实上,无论是“安全第一”还是“发展为重”,都是基于国家网络内容治理能力和网络内容阶段性特征进行的策略选择。由安全向发展的转化也是二者相互作用,达成平衡的动态过程。

网络内容管理制度的深入推进需要沿着由安全向发展的价值转化过程演进。在这一转换过程中,既需要信息安全管理范式的创新和转型,由传统的经验研判转向数据研判,由被动应对转向主动预防,培养公众的数据素养和防范意识,[5]也需要强化对各个主体约束性的转变,由强制性约束转为正确引导,由依靠组织化控制转为依靠个体自治,由封闭式治理转为互动治理。[6]目前,我国网络内容治理工作正处于由安全向发展进化的过程之中,在此阶段更需要明确内容审核工作的发展方向,对内容审核工作提出更高的发展要求,同时提供更为有力的制度支持。

需要注意的是,制度重心由安全向发展的演变并不是对安全的摒弃,而是在安全制度体系基本健全、网络信息安全得到全面保障基础上的深化改革,以制度创新为引领,为网络内容审核工作注入发展动力。