武丹/制图

作者|陈川

责编|薛应军

正文共3025个字,预计阅读需9分钟▼

近期,百度副总裁谢广军13岁的女儿因“饭圈”矛盾被卷入“开盒”事件。据媒体公开报道,该未成年人在社交平台因追星争议对一名孕妇及支持者发起网络攻击,不仅公开对方隐私信息(包括姓名、住址等),还附上了侮辱性言论,甚至晒出其父谢广军月薪22万元的在职证明截图。随后,涉事女孩的个人信息被网友反向曝光,形成了“双向侵权”恶性循环。

“开盒”这一网络词汇,本质是指一种通过非法手段获取并公开他人隐私的“数字暴力”行为,主要通过利用技术或零散信息拼凑将个人隐私暴露于公众视野,常伴随人肉搜索、网络暴力等违法行为。此次事件的特殊性在于施害者为未成年人,且隐私泄露的源头指向海外“社工库”,一个非法收集和交易个人信息的黑产数据库。百度官方虽通过公证否认内部数据泄露,但仍然引发公众对企业数据安全机制的广泛担忧和质疑。

未成年人施暴与平台责任之间的制度困境

传统刑法中未成年人责任豁免面临的理论困境。传统刑法理论以“理性人假设”为基础,认为未成年人心智未成熟,缺乏完全自由意志,故需通过刑事责任年龄制度予以特殊保护。然而,这一理论在数字时代遭遇空前的挑战。当未成年人熟练运用爬虫工具、加密通信和跨境支付技术实施对他人的权益侵害时,其技术能力已从实质上突破传统“理性不足”的预设。此次涉事女孩可能缺乏对行为伦理的完整认知(即意志不成熟),却拥有比肩甚至远超成年人的信息操纵能力(技术成熟)。传统“正义原则”要求制度设计需平衡自由与责任之间的关系,但法律对未成年施害者责任的豁免,也可能侵蚀其他主体的平等保护权。如何平衡二者的关系,值得深入探讨研究。

平台责任的规范悖论:“准公权力”扩张与公法约束的失衡。数字平台凭借算法架构与数据垄断逐渐演变为“准公权力主体”,但其法律地位仍被限定于“中立技术服务提供者”,这导致权责关系出现结构性异化。数字时代,平台通过算法设计在网络空间规则制定权方面明显强势。比如,当微博热搜算法将“开盒”话题的点击率作为推荐权重时,平台已从“被动通道”转化为“主动设置者”。这使得法律仍沿用传统的“中立性原则”要求平台仅对“明知”侵权内容负责,容易忽视算法架构的主观意志嵌入。

跨境治理主权壁垒与数据流动价值之间的悖论。传统国际法以领土边界划定管辖权,但数据流通的去领土化使“行为—结果”的因果关系链被技术性割裂。当涉事信息传入境内时,现行法既缺乏有效追溯源头的能力,也难以认定“犯罪行为地”。《中华人民共和国刑法》第六条确立的属地原则,要求犯罪行为或结果有一项发生在境内,但黑产组织通过跳转服务器、加密通信等技术手段,割裂行为链条,导致公安机关难以锁定关键证据。同时,《中华人民共和国个人信息保护法》要求境内个人信息处理者管控数据风险,但其对来自境外的“网暴”行为进行规制却显得相对力不从心。

隐私权与网络表达空间边界不清晰。“开盒”行为同时触犯公民隐私权与人格尊严,但我国现行法益保护体系对此的界定并不十分清晰。比如:《中华人民共和国民法典》将隐私权界定为“私密空间与信息”,而《中华人民共和国个人信息保护法》则以“可识别性”为核心,这使得同一行为面临双重评价标准。当涉事女孩公开孕妇住址时,该信息既属于“私密生活安宁”的隐私范畴,又是“可识别特定自然人”的个人信息。两套规范体系并行,不仅引发法律适用冲突,还可能模糊法益保护的优先级。

治理路径:从法律规制到技术防御协同治理

此次“开盒”事件表明数字时代法律逻辑、技术能力与社会共识的协同性有待加强,建议构建“立法精准—技术合规—社会共治”的三维框架,解决类似问题。

构建以风险预防为导向的法律体系。传统立法目标以“损害结果”为追责核心,但数字领域信息传播的瞬时性与危害的不可逆性要求转向“风险预防”模式。一方面,制定精确化的专项立法。比如,出台“未成年人网络隐私保护条例”,禁止基于公开报道、社交动态等合法信息源推导未成年人身份(如通过家长职务推断子女学校);要求平台对涉及未成年人的内容进行实时脱敏处理,如将“上海市长宁区某重点中学”替换为“华东地区某中学”;明确“造成精神损害”的构成要件,如泄露10条个人信息或信息传播至3个以上平台即触发行政处罚,20条以上入刑。另一方面,治理规则需突破跨境治理。在数字黑产全球化过程中法律应主动打破主权壁垒。借鉴欧盟《通用数据保护条例》(GDPR)第45条的规定,要求境内平台对接境外数据接口前需通过国家网信办的“数据保护充分性认证”,未达标者强制切断链接;修改《中华人民共和国国际刑事司法协助法》,授权司法机关对境外“社工库”运营者发起诉讼,可冻结其在网络平台的资金账户。联合其他国家建立“跨境数据犯罪情报中心”,实现IP地址、成员身份等实时共享,进而压缩黑产生存空间。

加快促进隐私增强技术的合规嵌入。技术不应仅是治理对象,更需成为治理工具。首先,重新设置身份验证方式。传统身份认证要求用户向平台披露身份证号、住址等原始数据形成“开盒”的信息源头。现用户证明自己满足注册条件(如年满13周岁)时,可仅向平台传递“是或否”的验证结果,不泄露任何具体信息。此外,基于区块链发行可撤销的匿名凭证,如学生证可加密为“某重点中学在读生”标签,既满足平台审核需求又避免真实身份暴露。其次,构建反“开盒”AI联防网络。“数据孤岛”是AI治理的难点,联盟学习技术可在保护隐私前提下实现跨平台协作;各平台将敏感词库、异常行为特征等数据加密后上传至中央服务器,联合训练识别模型;当模型发现某用户连续访问10个以上未成年人社交账号时自动触发账号冻结并推送司法存证接口。最后,通过区块链存证重塑司法信任。用户遭遇侵权时通过浏览器插件自动抓取页面内容生成包含时间戳、IP地址等,同步至公安、法院、运营商的区块链节点。

构建社会共治体系重塑数字公民权利意识。法律与技术手段的效能最终取决于社会共识的支撑。需通过教育赋能、企业透明与公众参与等途径培育“数据文化”。首先,将数字教育融入已有教育体系中。理论教学方面,将“数字素养”纳入中小学必修课,编写《未成年人网络行为规范手册》,重点教授隐私保护、信息验证与法律后果认知;实践方面可设立“模拟数字法庭”,学生通过角色扮演体验“开盒”案件审理过程,理解隐私侵权与言论自由的边界。其次,严格审查企业透明度。可强制平台发布年度《数据治理白皮书》,披露关键信息如热搜排名规则、推荐模型权重分配;第三方数据接入数量、风险评估结果,侵权投诉平均处理时长、用户满意度评分。最后,可建立独立监督委员会,由技术专家、法律学者与公众代表组成,对平台内容审核规则拥有一票否决权,委员会决议需要公开。同时,设立公众参与的常态化机制。如建立数字监督员制度,从网民中随机抽选“监督员”,赋予其匿名登录平台后台抽查内容审核记录,对违规账号封禁规则提出修订建议,参与重大侵权案件的线上听证会等权限。此外,还可开发“反开盒”举报App,用户上传线索后可获得区块链积分,积分可兑换诉讼费用补贴或网络普法课程。

“开盒”事件暴露了数字时代未成年人行为监管、平台责任界定与隐私保护等方面的法律滞后性。治理类似事件需要构建“预防性立法—技术防御—社会共治”协同体系,即通过专项立法明确未成年人网络行为的边界,运用隐私计算技术阻断信息泄露链条,同时培养并提升全民数字素养。唯有法律、技术与公众意识三重发力,才能实现数字生态的良性发展。

(作者单位:山西大学法学院)

ad1 webp
ad2 webp
ad1 webp
ad2 webp