摘要:未成年人“擦边”短视频成为一些平台的引流利器。记者调查发现,在流量经济和算法推荐的驱动下,部分社交平台流行的“举牌”现象暗藏色情内容,用户只需花费个位数到两位数的金额,就可以让一名未成年人拍摄指定内容,如“脸举”“手举”“腿举”,甚至还有“胸举”“私举”等。
武丹/制图
正文共2849个字,预计阅读需8分钟▼
近日,有媒体报道,未成年人“擦边”短视频成为一些平台的引流利器。记者调查发现,在流量经济和算法推荐的驱动下,部分社交平台流行的“举牌”现象暗藏色情内容,用户只需花费个位数到两位数的金额,就可以让一名未成年人拍摄指定内容,如“脸举”“手举”“腿举”,甚至还有“胸举”“私举”等。
近年来,对网络平台涉未成年人不良内容的治理,始终是相关部门的重点工作,也取得了一定的成效,但仍有部分未成年人在短视频平台发布带有性暗示或成人化表演的内容,通过打“擦边球”方式博取流量和关注。此类行为严重影响未成年人身心健康,如价值观扭曲、诱发网络性剥削和隐私泄露风险。在此背景下,本文结合当前未成年人“擦边”短视频治理面临的问题,试探讨破解路径。
面临的问题
未成年人网络保护法律体系有待健全。当前,未成年人网络保护法律体系面临双重挑战。一是立法前瞻性不足。《未成年人网络保护条例》第二十二条虽明令禁止制作、发布含有宣扬淫秽、色情等内容的网络信息,但对“淫秽”的界定需援引《中华人民共和国刑法》第三百六十七条关于淫秽物品的定义,即“具体描绘性行为或者露骨宣扬色情的淫秽性的书刊、影片、录像带、录音带、图片及其他淫秽物品”。显然,这种界定难以有效规制数字时代依托网络传播的“擦边”软色情,导致大量未成年人“擦边”内容处于监管盲区,出现无法可依的局面。二是已有规范不尽协调统一。一方面,相关条款分散在多个部门法中,缺乏系统整合;另一方面,同一规范不同条款之间、不同规范之间在概念界定上存在矛盾。例如,《未成年人网络保护条例》第二十二条第一款将“淫秽”与“色情”并列规定,却在第二款合并表述;《中华人民共和国刑法》第三百六十七条则将“色情”作为“淫秽”的下位概念,列为淫秽的具体表现形式之一。在现行法尚未对“色情”这一概念作出界定情况下,这种规范上的冲突不仅影响法律适用的统一性,更削弱未成年人网络保护的效果。
平台主体责任落实不足。平台责任缺失体现在两个方面:一是审核机制存在缺陷。技术审核过度依赖关键词库,对“举牌”“代跳”等隐蔽表达和软色情内容识别不足;人工审核受妆容和滤镜干扰,难以准确判断未成年人是否已满十六周岁。更值得警惕的是,部分平台在商业利益驱使下,刻意放宽审核标准,将商业利益置于未成年人利益之上。二是处置措施具有被动性。《未成年人网络保护条例》第二十九条规定的“立即停止传输相关信息,采取删除、屏蔽、断开链接”等处置措施,在实践操作中经常被规避,部分违规内容并没有被删除,部分违规内容仅作“限制”标记,却依旧能够正常浏览。
家庭监护失范。家庭监护呈现两种极端形态。一种是监护缺位,表现为监护人网络素养不足,简单采用惩罚性和限制过度的管教措施,无法根据未成年人不断发展的能力,尊重其日益增长的自主性和对隐私的需要。有研究表明,青春期未成年人更易受同伴影响,过度限制反而会刺激其通过高风险行为(如拍摄“擦边”短视频)寻求认同。另一种是监护异化。部分监护人将未成年子女异化为牟利工具,如要求一名七八岁的女童展示“辣妹装”等不当内容。这种监护不仅侵犯未成年人隐私权和人格尊严,更将其置于危险的网络环境之中。
破解路径
完善未成年人网络保护法律体系。完善法律体系需处理好法的安定性与发展性之间的关系,未成年人专门立法与其他部门法的关系,中国本土实践与国外立法经验的关系。
首先,增强立法前瞻性。一方面,建议将成年人“擦边”软色情视为刑法中的淫秽,并对未成年人设置更低的认定标准。另一方面,适度借鉴美国保护网红儿童权益的立法规定,一是保障未成年网红的经济权益,明确规定父母在社交媒体所发布的内容中,未成年人出镜超过一段时间,有权获得相应比例的收入分成;二是赋予未成年人“被遗忘权”,允许未成年人在成年后有权要求平台删除与其相关的内容。
其次,增强法律的系统性与可操作性。建议以《未成年人网络保护条例》为基础,系统梳理《中华人民共和国刑法》《中华人民共和国治安管理处罚法》《中华人民共和国未成年人保护法》等法律法规中涉及未成年人网络保护的规定,通过出台司法解释的方式,明确“淫秽”与“色情”等关键概念的界定标准,保障法律规范之间的协调统一。同时,使得《未成年人网络保护条例》成为一部可操作性强、能够适用于具体案件的法律。
最后,健全立法机制。明确立法机关中负责未成年人立法的专职机构,以便对相关立法工作进行规划、协调,保持立法工作的连贯性、稳定性。
健全平台全链条责任机制。强化平台责任,建立全流程治理机制。在审核环节,应当推动审核机制从形式审核向实质审核转变,构建“技术筛查+人工复核”双层过滤系统:对于技术审核,不仅要加强关键词过滤机制,防止利用谐音梗或同义词等方式变相推送违规内容,还需运用动态骨骼分析等AI手段识别性暗示动作;对于人工审核,实行“存疑即处置”原则,只要平台审核人员“推定”直播或视频发布者可能为不满十六周岁未成年人的,就应当采取断开链接或封禁账号等措施,不需要达到“明确知晓”的证明标准。
在处置环节,应当推动事后处置向事前处置转变:在事前阶段,优化算法推荐机制,对于含有或可能含有未成年人“擦边”内容的推送应减少流量分配;在事后阶段,建立快速响应机制,在综合评估基础上,明确响应的最短时间,对于因未及时处置导致危害后果扩大的,有关部门可不经责令改正、警告等前置程序,直接施以暂停运营、停业整顿、吊销执照等处置措施,加大违法成本和处罚力度,形成有效震慑。
重塑家庭监护能力。家庭监护能力重塑应从支持与限制两个维度着手。支持方面,政府及有关部门应当以最有利于未成年人为原则,为父母或其他监护人获得网络素养提供指导。这种网络素养指导应促进父母或其他监护人在保护未成年人和尊重未成年人自主性之间保持适当平衡,而非出于禁止或控制目的。同时,对父母或其他监护人的指导还应鼓励让未成年人在网络环境中开展健康社交和学习活动,并强调使用数字技术不应取代未成年人之间或未成年人与父母之间的直接交流和互动。限制方面,对监护侵害行为建立分级干预机制:对于利用未成年人牟取利益的父母或其他监护人,情节轻微的,实施账号连带封禁和强制家庭教育指导,如果拒不接受强制家庭教育指导,有关部门应当依法对其予以训诫、警告、拘留等行政处罚;情节严重构成犯罪的,应当依法追究刑事责任,根据案件具体情况限制或剥夺监护资格,以防未成年人合法权益进一步受损。同时,鼓励学校、社区开展“健康用网”主题活动,构建“家庭—学校—社区”协同监护网络,为未成年人营造清朗的网络环境。
本文为2024年度陕西省教育厅科学研究计划项目(课题编号:24JK0243)、2025 年度陕西省哲学社会科学研究专项课题(课题编号:2025QN0611)的研究成果。
来源:民主与法制报