二、网络内容审核标准存在的问题
当前由于审核技术、机制和责任归属的不健全,现阶段网络内容审核标准存在着安全与发展取向不平衡的问题。一方面,平台内容审核工作固守安全底线,忽视了长远发展目标的制订;另一方面,平台面对技术红利的吸引单方面追求内容发展,致使相关的安全保障措施配备相对滞后。两方面的价值失衡引发了各类网络内容审核工作问题,同时也反映了相关制度建设的短板。
(一)责任规约不明确
习近平总书记在2016年的全国网络安全和信息化工作座谈会上提出,网站在网上信息管理中应负“主体责任”。互联网平台掌握着干预平台信息流动的技术能力和内容管理的实际权力[7],是网络内容审核的责任主体。平台主体责任的落实是安全与发展的实现基础,然而实际工作中却存在着各类责任不明确的问题。
首先,平台的责任履行不够全面。一些平台初步明确了“底线”工作的重要性,并成立专班小组负责相关工作,但对优质内容引导工作还不够重视,因而导致了内容审核与内容发展之间的价值断层。第二,平台考虑审核成本和效率,将部分审核工作移交外部团队,导致审核责任间接落实、人员素质参差不齐等问题,可能造成审核质量下降。第三,部分平台自制力较弱,内容安全意识不足,时常为了追求流量而牺牲质量,致使一些处于灰色地带的内容频频出现。
这些问题反映了当前政策法规对平台责任约束力的不足,也反映了平台审核工作中安全与发展的价值错位。如何通过政策引导将平台审核责任中的安全与发展有效衔接,提高平台自我管理的自主性和积极性,是当前阶段需要思考的问题。
(二)管控尺度难以把握
《规定》中将网络内容的审核与处理标准概括为“十一不准”“九防范抵制”和“七鼓励”,是当前最为权威和全面的网络内容治理参考标准。[8]这一标准为网络内容治理划定了较清晰的框架,对优质内容的标准予以了一定指引,体现了安全和发展两个价值维度。基于这一框架,平台能够对色情、暴力等“底线”内容进行果断识别和封禁,但对于相对模糊的内容仍然存在管理力度难以把握的问题。
网络内容本身具有复杂性,是一种处于添加、改写、再传播状态中的永久“半成品”[9],这也导致平台难以形成普适化的处理策略。平台依靠自身治理经验进行的管理具有局限性,其管理方式与用户接受能力之间可能存在偏差,引发次生舆情,造成公共利益损失。
当前网络内容审核标准在系统管理理论以及行动逻辑方面还有待深入研究[10],存在可操作性较弱的问题,缺乏具有动态适应性的处理预案,因此难以为平台审核工作提供更为细致的指导。审核工作的完善需要进一步考虑其维度多样性,在为安全问题提供参考的同时,也为复杂内容的处理以及优质内容的发展提供更多切实的解决路径。
(三)公开机制不健全
网络内容审核流程的完整性和合理性是内容审核工作的重要发展维度,平台公开机制是提高审核工作透明度和保障工作质量的重要环节。目前,一些平台在审核工作中存在机械化、形式化的问题,可能造成用户的不满情绪以及社会监督的缺失。
一方面,平台的信息公开工作不够深入。许多平台颁布了社区公约,对平台使用进行了细致规约,同时也开通了官方管理平台,例如“微博管理员”账号,微信“辟谣助手”小程序等。这些做法取得了一定成效,但对用户主动性要求较高,治理范围较为有限,仍然需要进一步的宣传推广。另一方面,用户在审核工作中处于较被动的地位,用户主体性体现不足。一些平台利用技术优势在用户不知情条件下对其创作内容进行可见范围设限,从而预防不确定性内容的负面影响,减轻审核工作的压力。类似做法虽然能够规避风险,但是不利于对用户的引导和培育,也放任了平台所构建的权力不对等的私人秩序的形成。[11]
透明化工作中的问题进一步表明了安全与发展的价值失衡,网络内容审核工作需要着眼全局,形成可持续的工作模式和方法,不仅要考虑当前工作的完成和问题的解决情况,更要考虑内容治理的长远规划和发展目标。
(四)前置预防机制不完善
长期以来,后置处理是平台内容审核工作的主要模式。一些信息形式具有较大的管理难度,例如谣言等不良信息具有来源广泛、不确定性强、变化发展快、人际扩散迅速等特征,使不良信息在平台介入之初就面临着较大规模的传播和影响范围,平台处于相对被动的地位,即使最行之有效的治理办法仍然是偏滞后性的。即时通信类信息也存在着类似问题,此类信息具有碎片性和隐匿性,平台除了针对特定关键词的前置拦截以外,对于其他信息只能进行事后干预,而此前已发出的内容则难以进入治理范围。此外,平台依据内容热度划分审核优先级也导致某些偶然性大面积传播的不良内容难以得到及时发现和处理。
面对体量庞大的网络信息,单方面的后置性安全保障工作难以完全解决内容问题,需要从发展的思路出发,开展前置性的教育和预防工作。一些平台开通了“赞赏”“投币”等激励功能,鼓励用户发布优质原创内容。此类做法有利于推进内容审核工作由事后管理向事前引导转变,但总体来看平台在公约引导和优质内容激励层面相对薄弱,此类做法同时需要避免商业炒作、非理性打赏、盗版侵权等问题。一些平台推出了个性化的用户素养培育功能,例如哔哩哔哩要求用户在获得会员身份之前通过社区使用规范考核,一些豆瓣小组要求用户在加入小组前做出遵守小组规则的相应承诺等。这些做法能够在一定程度上提高用户的规则意识,但是尚未得到完全的推广使用,且一些公约内容由用户自主制定,缺乏专业性和约束力。
(五)技术标准不全面
技术是网络内容建设的重要驱动力,代表着平台发展的价值取向。平台技术的创新需要通过内容呈现,因此“发展”是平台内容建设的基本要务。尽管如此,内容安全仍然是内容繁荣发展的前提条件,现阶段存在着内容审核技术滞后于内容发展技术的现象[12],导致平台在技术方面出现了过度追求发展取向的问题。具体来看,智能算法推荐等平台内容生产技术满足了用户的个性化需求,但同时也导致了内容同质化、碎片化问题。然而与之相应的内容质量保障技术尚未得到充分开发和应用,无法与过分商业化导向的推荐机制形成制衡,进一步放任了内容质量的滑坡。
另外当前网络内容审核技术尚且无法全面满足审核工作的现实要求,针对图片、视频、音频等内容审核的相关技术处于弱智能状态。例如平台的视频内容审核仍然存在着成本较高的问题,当前技术水平下需要对视频画面进行抽针处理,对音频信息进行文字转化,大大增加了审核的工作量。
目前我国仍然缺乏有效的网络内容审核技术研发制度与研发激励机制,导致相关研发主体的创新意识不强,技术开发的积极性较低,从而导致了内容审核技术的发展滞后问题。现有技术标准不够系统,更加侧重技术的可能性与实用性,对于技术与内容更新速度的适应性以及技术与网络内容形式间的匹配性考虑不足。