X

国内网络社交平台色情信息的审查义务

作者丨蔡曦蕾 北京交通大学法学院副教授

韩国曝光的“N 号房”事件,引起了公众对网络色情信息的高度警惕。观之国内,部分网站、社交软件也存在着以低俗、媚俗的内容打色情的擦边球,吸引网友眼球的现象。根据《检察日报》记者调查了解:手机 QQ 中的“看点”平台,就包含打色情擦边球的内容,通过发布简述国外包含婚姻出轨、乱伦、恋足癖等畸形爱恋内容的伦理电影的视频,来吸引点击率;而据《新京报》记者的报道:国内亦存在多个儿童色情网站,观看者花几十到上百元充值,成为年费会员, 就可以观看下载大量的儿童色情图片、视频,其中一家网站的注册会员达八百余万。这些网络色情乱象不仅造成“劣币驱逐良币”的内容挤出,污染网络生态,而且容易吸引未成年人过早对性产生好奇心,影响身心发展。

为了强调网络信息内容的禁区,以表明我国对淫秽色情信息以及软色情内容坚决抵制和清理的态度,根据国家互联网信息办公室(以下简称“网信办”)发布的《网络信息内容生态治理规定》:对于网络信息内容服务平台,应当重点建立网络信息内容生态治理机制,如制定本平台的生态治理细则,以及健全平台管理制度,重点要完善用户注册、账号管理、信息发布审核、跟帖评论审核、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度。

根据《第 44 次中国互联网络发展状况统计报告》在 2019 年的权威统计:我国 19 岁以下的网民整体占比为 20.9%,如何引导未成年网民健康上网,已上升为一个时代命题;自 2019 年 3 月起,“网信办” 持续于各类网络平台深入试点并推进“青少年模式”,在该模式下关 闭站内搜索、弹幕评论、内容分享、私信聊天、拍摄发布、充值打赏等功能,仅推荐适合青少年观看的内容,确保“青少年模式”下的内容池更健康,使其免受不良信息侵袭,然而,截至目前,国内大型的社交平台中,微博已经上线了青少年模式,但微信却迟迟未推出该模式。在整个社会聚焦网络色情信息传播、色情犯罪的当下,网络色情信息管控工作变得更为紧迫和关键,尤其是网络社交平台的信息审查作为其中关键一环,面临着不小的压力。

对于网络社交平台而言,针对其平台上的网络色情信息审查,必要性在哪?审查过程中又面临何种价值困境?对此困境又有何破解 路径?本文试图从该三方面做出阐述。

一、色情信息审查的必要性

(一)防止色情泛滥

基于互联网的开放性,如果任由色情淫秽信息泛滥,任何人不费吹灰之力就可以获取大量色情淫秽信息的话,特别是对未成年人而言,因其更易受到色情信息的诱导,而对性产生不切实际的幻想,以致于耽溺其中、妨碍正常学习生活,而一旦处置不当最终将酿成恶果。

减少网络色情信息的传播,是社会良性发展的要求,也是保护未成年人身心健康的要求。纵观其他国家,美国设立了网络内容选择平台PICS、新加坡建立了SBA许可证制度、德国采用了网络内容标签制度,给网络内容贴上标签,帮助选择并回避不良信息;从服务商角度,全球范围内的高科技公司都纷纷开始构建自己的技术措施和信息数据库,通过人工智能方式追踪网络乱象行为并及时采取应对措施。

对互联网的色情规制是必要的,这是自由、开放和安全的互联网得以持续的条件。这不仅需要靠国家公权力机关不懈的围追堵截,更是网络社交平台在日常的网络服务运营中需要始终贯彻的宗旨。

(二)防控犯罪

制作色情物品背后少不了色情相关的犯罪,为了博取眼球,许多人将真实生活中发生的违法或犯罪事实录制成影片或制作图片,比如卖淫、强奸、强制猥亵、聚众淫乱等;尤其是儿童色情行业,更是存在着强奸儿童、猥亵儿童、拐卖儿童、收买被拐卖的儿童、强迫卖淫等上游犯罪。儿童色情淫秽制品会对被害儿童产生永久性伤害,不仅体现在因遭受性犯罪而导致的身体伤害上,也表现为因拍摄不雅视频和目睹不雅视频传播所引发的沉重强烈的精神压力和自卑情绪。除了制作色情物品外,走私、复制、贩卖、传播、组织播放色情物品或组织淫秽表演等,也是刑法所规制的犯罪,意在切断色情物品的传播链 条。

审查和阻断网络色情信息,从某种程度上可以抑制以传播淫秽物品为目的而引发的上游犯罪,减少对未成年人的伤害,直接遏制传播型犯罪,且可以降低犯罪影响,减少对受害人心理摧残,对于防控犯罪有着积极意义。

(三)破除“技术中立”迷思

技术中立原则常常被网络服务提供者用于为技术服务者未履行 4 必要的审查义务免责,如在“快播案”中的“菜刀理论”即是如此, 然而,也是在本案中,审理法院对此理论进行了驳斥:“正是快播公司提供的这种介入了缓存服务器的视频点播服务,以及设立的这种缓存技术规则,决定了其实质介入了淫秽视频的传播行列”,更确切地说,快播公司提供的缓存技术,正是构成了色情淫秽信息传播的一环。 其具有网络视频软件提供者和网络视频内容管理者的双重角色,明知用户制作、传播的是色情淫秽信息,却耽于承担安全管理责任,甚至提供传播便利,属于传播淫秽物品谋利罪和拒不履行网络安全管理义 务罪的想象竞合犯。

“快播案”论证了一点:在法律与科技存在强势管制关系的环境下,技术中立是一个伪命题,尤其是针对具有违法犯罪嫌疑的色情内容,向来是与现有法律体系、社会整体价值体系存在冲突,在明显的价值碾压的境地下,互联网技术应遵循对基本善、美的敏感性,不能再利用技术中立为借口,对网络内容不加区分对待。

二、网络社交平台色情信息的审查困境

在我国,无论是从色情信息审查的社会意义,还是从行政机关的监管意向,包括社交平台在内的网络服务提供者进行色情信息审查责无旁贷。从《网络安全法》以及“网信办”发布的一系列管理规定构筑起来的规范性法律文件体系来看,均要求网络服务提供者通过协议明确用户的权利义务,承诺遵守法律法规、社会公序良俗,遵守平台管理规则和公约。网络服务提供者应利用信息安全管理技术对用户内容进行审查和过滤,对公共信息进行实时巡查,建立应急处置,保存有关记录,及时处理公众举报的违法和不良信息,健全信息审核。但网络服务提供者提供的网络服务不一、审查情境不同,难免遭遇价值 冲突的困境。

(一)信息审查与审查动力的冲突

从网络诞生之初,色情便是相伴相随的,正是色情隐喻推动了互联网的发展。帕切·巴斯(Patchen Barss)在其著作——《色情引擎:从古腾堡到 Google,色情是如何激发大众传播的潜力?》一书 中表示:色情产业引领人类历史上无数次信息传播技术革命,并最终让我们拥有了现在这个快得让人惊叹的网络速度。

互联网推动色情产业结构升级,反过来,色情行业以惊人的消费潜力、丰厚利润以及对新技术和新商业模式的强烈需求刺激互联网产业不断发展。许多网络社交平台在成立之初,其服务产品内容都或多 或少打了些色情的灰色印记,待到整个网络运营体系成熟后,又逐渐 迈向更高要求的合法合规经营。有学者曾称:如果从一开始完全剥离 网络的色情属性,网络本身会丧失一部分活性。故而,网络社交平台 出于运营成本和网络活性的考虑,缺乏追求最极致的色情审查的动力。

(二)信息审查与隐私保护的冲突

在大数据时代,隐私保护也是网络服务提供商的必修课之一。在 美国联邦层面即已有了数十部保护个人数据隐私的法律。2018 年 5 月,欧盟生效了《通用数据保护条例》,该条例面向的是所有需要收 集、处理、储存、管理欧盟公民个人数据的企业,限制了这些企业收集与处理用户个人信息的权限,旨在将个人信息的最终控制权交还给 6 用户本人;在我国,隐私保护可见于宪法、民法、刑法中,个人的隐 私权、通信秘密权受到保护,而《网络安全法》也明确要求网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收 集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收 集者同意。正是在这样的法律制度背景下,即便是出现了“N 号房” 事件,Telegram 仍坚称:用户的隐私保护是其最高宗旨,平台不会 随意侵入个人通信空间。

在国内,部分社交媒体在隐私保护政策里明言:收集个人信息仅限于提供服务之必须,尊重个人通信自由和通信秘密,不会保留用户的聊天记录,这一观点也在 2010 年“QQ 相约自杀案”中,被二审法院采纳并用来支持改判的依据,从而驳回了死者父母对腾讯公司的诉讼请求。

如果对私人网络通信领域进行色情信息审查,就可能会侵犯个人通信秘密和隐私权。在私人对话里,如果出现色情信息,鉴于受众有限,传播链条单一,并不会导致色情信息短时间大面积扩散的风险;同时,在信息爆炸的当下,如果对每一个私人通话、聊天记录进行事前审查才允许发送,这将极大提高网络社交平台的运营成本;但是,如果按照“QQ 相约自杀案”二审法院的观点:腾讯公司具有事后被动审查的义务,这就涉及一个审查限度和边界的问题,是否必须保留私人通信记录?在何种情况下可以进行审查?审查的范围在哪里?这都是私权和社会公益在博弈过程中不得不考虑的问题。

(三)信息审查与言论自由的冲突

言论自由是我国宪法赋予公民的权利,但法律框架下的言论自由,一定应受必要的限制,是“戴着枷锁”的舞蹈。长期以来,网络社交平台以保护言论自由的理由,要求适用“避风港原则”,但这一观点随着自动化过滤技术的发展,也在近年逐步被打破;2019 年 4 月,欧盟也通过了《统一数字市场版权与相关权利指令》,向内容分享平台施加事前获得版权及相关权利授权的义务,从而避免事后的一般内容审查。在世界范围内,网络平台的言论将受到更有力的管制,甚至在某些敏感或公众领域将发展为前置审查。

言论自由不能以侵犯他人合法权益为代价,社交网络平台必须及时关注并清理平台上的暴力、恐怖、极端、仇恨和谣言。但在色情审查方面,何种言论会被视为具有色情内容?比如,根据“和讯科技” 的调查:微视的引流视频多以身体暴露的“美女视频”做封面,用“让 我来”、“长得漂亮”、“开放”、“尺度”这样的文案做广告词,故意引人“遐想”,打色情的擦边球,这样的俗称为“荤段子”的内容,是否属于色情信息而应遭到封禁呢,对此,正反两方面的观点不一,关键就在于对色情言论的认知上,不同年龄,不同文化水平、不同经历的人群差异很大,众口难调,难以做出令所有人满意的审查结果。

(四)信息审查与模糊法律义务的冲突

对于网络社交平台的具体信息审查义务,目前散见于政府有关部门的规范性文件,篇幅单薄,难以适应各种复杂的网络情境。刑法规定了“拒不履行网络安全管理义务罪”和“帮助信息网络犯罪活动罪”,向网络社交平台警示了拒不履行信息审查义务情况下可能面临的刑事处罚。但在实际处理上,网络社交平台的管理义务边界在何处,这是一个见仁见智,并没有明确统一标准的问题。网络社交平台时常夹杂在行政司法机关的强势要求,和用户的强力权利主张之间,进退两难。尤其是色情信息审查这一块,如果色情淫秽信息的定义不明晰,网络服务场景不明晰,义务主体不明晰,就必然会陷入被动的审查局面,难以同时巧妙地满足用户权利需求和公权力机关的监管期望。

三、审查困境的解脱路径

无论如何,上述审查困境不应成为网络社交平台放弃审查的理由, 从政府监管的角度,也应积极应对,在困境中寻找监管的切入点与平衡点,本文从宏观上提出如下几点解脱路径:

一是需要加强立法,提高网络监管的立法层级,丰富网络监管法律体系,此外在互联网信息发展行业和网络发展行业出台协会的规范和协议倡导,完善和补充相关立法的不足。从色情信息监管这一特定 角度来看,对于成年人色情信息和儿童色情信息需要区分监管,对于儿童色情信息更应从严管制,公私配合,对于持有、存储儿童色情图片、色情视频等淫秽制品的行为也要禁止和查处。

二是网络监管需要多管齐下,不能把审查压力全部积攒在网络社 交平台之上。对于色情审查而言,除了“扫黄打非办”、“网信办”、 公安等公权力机关的介入外,也要调动网络社交平台信息审查的积极 性,包括但不限于发动行业协会的力量,发动民间相关组织的力量(如 妇联、未成年人保护机构),发动网络自律组织,网民集合的力量进 行联合审查,形成有效联动应对。

三是明确审查技术边界。就色情信息审查而言,需要出台色情淫秽信息的标准界定,例如是否包括无实质侵害的色情言论,并就该标准研发相关的过滤审查技术和机制,在此范围之外,有漏查或异议的, 网络社交平台可以主张免责。

四是区分服务场景进行审查。比如对于一对一的私密网络聊天场景,属于私人通信范畴,即便含有色情信息,网络社交平台承诺不侵入,也无信息审查的义务;在特定人数的群聊领域,网络社交平台可以建立事后审查机制,保存相关聊天记录,在必要时应公权力机关要求予以配合调取;在针对不特定人数的公开发布平台,网络社交平台应设置必要的不良信息过滤机制,在技术上实现个性化算法推荐推送信息,建立体现主流价值导向的推荐模型,通过关键词过滤,URL屏蔽,截图审核,数据库过滤等技术进行快速响应,采用技术和人工的双重干预机制,附加后台人工审核完成对色情信息的二次判断,以达到前置阻截色情信息的目的,实现最佳技术实现方式和运营策略,共同为维护未成年人的网络环境编织起严密的防护网。并建立简单便民的投诉举报路径和受理处理制度,完善后置处理色情信息的程序。

五是明确义务边界,落实网络社交平台能采取的审查措施,有禁止发布、封号、删除相关内容、向公权力机关举报等,并完善异议解决途径。

六是实行合理的责任承担。区分网络社交平台审查错误、审查遗漏、故意放任、故意配合实施色情活动等情形,对应地建立有梯度的责任机制,包括但不限于警告、训诫、勒令改正、罚款、关停甚至追究刑责等。