加强监管,对未成年人“开盒”说不

360影视 国产动漫 2025-06-05 10:22 2

摘要:根据中国互联网络信息中心发布的《第六次全国未成年人互联网使用情况调查报告》,当前,我国未成年人网络普及率已达97.3%,未成年人网民规模已上升至1.96亿人。伴随着未成年人网络用户数量的激增,未成年人参与“开盒”的现象也越来越常见。“开盒”与人肉搜索一样,都是

根据中国互联网络信息中心发布的《第六次全国未成年人互联网使用情况调查报告》,当前,我国未成年人网络普及率已达97.3%,未成年人网民规模已上升至1.96亿人。伴随着未成年人网络用户数量的激增,未成年人参与“开盒”的现象也越来越常见。“开盒”与人肉搜索一样,都是一种非法的恶意的信息揭露行为,但相比于“人肉搜索”,“开盒”主要是以技术手段非法获取信息,而非单纯进行相关信息的检索与收集。“开盒”恶意披露的是更加具有隐私性的信息(如行程、家庭成员联系方式、浏览搜索记录等),通过揭露对象的隐私、敏感信息来进行舆论审判和人身攻击,最终从多个层面伤害被“开盒”的人。

未成年人参与“开盒”的危害较大,主要体现为:其一,未成年人的“开盒”行为主要针对同龄人,严重侵害被“开盒”人的隐私权。同时,未成年受害者会承受极大的身心痛苦,严重影响其健康成长,心理承受能力较差的未成年人还有可能做出极端行为,例如自残、自杀等。其二,未成年人参与“开盒”将对自身的心理健康产生极大的影响。在“开盒”时接触到的大量隐私信息、恶意评论、网络暴力等内容,对未成年人的健康发展不利。同时,经常从事“开盒”行为无疑会极大减弱未成年人的同理心,推动“仇恨文化”的发展。未成年人在网络上“开盒”他人可能会留下永久痕迹,参与“开盒”的行为一旦被揭发,未成年人在学校、社会中很有可能被贴上“网暴者”或者“加害者”的标签,从而遭到他人排斥。其三,未成年人的“开盒”行为本身就意味着行为人价值观的扭曲。参与“开盒”的未成年人将他人的痛苦娱乐化,从围观、评价受害者中获得快乐,将这种网络暴力的“审判”视作正义,强化攻击性表达,最终可能产生反社会倾向。其四,未成年人的“开盒”行为会进一步加剧家庭和社会对未成年人使用网络的担忧,致使家庭和社会在未成年人使用网络等各种社交媒体上的对立和冲突,加剧紧张氛围。

未成年人参与“开盒”的成因很复杂。无论如何,作为信息承载者的平台难辞其咎。首先,在流量至上的时代,平台算法会尽可能以争议性、热点性话题吸引用户浏览,平台出于利益会更加倾向于推动“开盒”信息的传播,并以算法推广给更多人。换言之,平台算法在推动、鼓励冲突性的、情绪化内容传播上有内驱力,不太容易进行自觉的抵制。其次,目前各大平台的“未成年人模式”运行效果有限,没能建立起保护未成年人的围墙。“未成年人模式”无法完全过滤诸如群聊、私聊中发送的相关“开盒”信息,仍然有大量的未成年人通过这样或者那样的方法绕开年龄甚至是身份验证,这种平台为未成年人建立的“沙箱”在事实上漏洞百出。再次,平台严守数据安全方面的措施不合格。如Facebook平台在2018年将逾8700万用户的个人信息泄露给智库和竞选团队,被其用于分析用户偏好、预测用户的选择结果。另外,技术缺陷、平台内部人员未尽到审慎义务等也可能导致数据安全事件发生。国家计算机病毒应急处理中心定期发布对违规移动应用的监测报告,每个月至少有数十个应用被披露,由此可见,目前平台并未采取足够的措施严守用户数据安全。最后,平台的内外部监管不力。在平台内部,平台基于经济利益的考虑往往不会主动介入内容审查。举例来说,热搜事件并非完全以事件本身的热度进行排序和推广,根据相关媒体的报道,微博等平台此前存在大量买卖热搜头条的情况,位列热搜榜前五、曝光度更高的位置往往会开出数万元的要价,而对这种“被付费”的信息,平台出于经济利益的考量,往往不愿意对其内容进行过多监管。而法律规制还远远没跟上现实需要。在2023年9月25日《关于依法惩治网络暴力违法犯罪的指导意见》发布之前,我国对“开盒”行为并无专门法律法规进行规制,也无专项整治“开盒”的行动。然而,即使有了这个规范性文件,近几年对平台的外部监管仍然处于疲软状态。

今年5月,中央网信办专门印发通知,从阻断“开盒”信息传播、完善预警机制、加大惩治力度、优化保护措施、加强宣传引导等多个维度明确工作要求,督促各地网信部门、各网站平台进一步强化“开盒”问题整治工作。锚定平台监管,加大规范未成年人“开盒”行为,需要从以下方面着力:

第一,禁止平台推送“开盒”等煽动性信息给未成年人。首先需要明确的是,平台完全可以控制其推送给用户的内容,尤其是对未成年人推送的内容。正因为技术上可行,不存在所谓的“算法黑箱”问题,平台必须对涉及公共安全、舆论引导、心理健康等方面内容践行算法透明化,同时设置相应的审核介入阈值,在内容尤其是敏感内容的数据达到阈值后介入进行审查。在自然语言处理技术、计算机视觉技术成熟的当下,这种合理要求并不会显著提高平台的负担,具有成本和技术上的可行性。

第二,推动平台完善“未成年人模式”。“未成年人模式”的有效性首先仰赖于对未成年人的识别。要通过建立健全严格的身份、年龄认证机制,进一步建立起对相应内容进行分级的制度。一个相对成熟的模式是“实名+身份信息+面部识别+语音确认”,这样可以在相当大程度上减少冒名顶替行为的发生。根据账号的真实实名信息实现内容推送的合法性和正确引导性,是身份识别系统设立的可行路径,也是保证“未成年人模式”有效性的前提。

第三,平台切实严守数据安全责任。首先是建立健全用户数据,尤其是用户敏感数据的全链路保护机制。以数据分类、分级管理制度对涉及隐私信息尤其是未成年人信息的数据采取更严格的保护策略。以“同意”原则作为用户数据使用、处理的前提,同时,对个人信息的“同意”,绝对不能仅限于账号注册时。通过这种注册时的“同意”来证成平台具有个人数据处理权,其合法性和妥当性都是存在问题的。对未成年人来说,每次涉及信息处理时,都需要根据现行法律来决定是否要求未成年人的监护人以人脸等信息识别方式表达对未成年人个人信息处理的“同意”和认可。另外,可以用数据脱敏技术防止以数据反推用户身份,定期进行数据库漏洞扫描和安全检查,从源头上守好用户数据安全。

最后,建立健全平台的内部和外部监督机制。在内部监督上,主要是限制员工对用户的数据使用权限,对非法使用、泄露用户数据的员工严肃追责,涉嫌犯罪的及时移送司法机关;建立严格的操作、审计日志存档机制,以强化电子证据固定。同时,平台要主动参与内容审核,遵循“发现信息—限流信息—判定信息类型—处理信息”的规则,积极作为。在外部监管方面,主要是网信部门联合公安、检察等部门定期对相关平台进行内容合规性检查,从是否及时有效识别未成年人、是否有涉及未成年人“开盒”敏感信息流动、是否有相应的识别和举报机制等方面进行考核。对于已经发生的未成年人“开盒”行为,情节严重的,司法机关可依法追究违法行为人的刑事责任;情节较轻的,可引导被害人通过民事诉讼依法维权。

【本文系国家社科基金重大项目“习近平总书记关于尊重和保障人权的重要论述”研究(22&ZD004)阶段成果】

(作者单位:西南政法大学)

作者:赵树坤 唐靖东 新闻来源:检察日报-未来周刊

来源:锦江检察

相关推荐