前台客服
扫一扫

扫一扫加我

返回顶部

史蕾、杨雪娇:未成年人网络空间发展权与受保护权的双向提升——解读《未成年人网络保护条例》

一、导读


《未成年人网络保护条例》(以下简称《条例》)将在2024年1月1日正式实施。《条例》自2016年首次草案征求意见以来经过长达七年的酝酿与调整,充分回应了这几年间科技进步、互联网商业模式创新和业态更新等对未成年人保护提出的要求和挑战。《条例》共七章六十条,主要从网络素养促进、网络信息内容规范、个人信息网络保护以及网络沉迷防治四个章节提出网络保护要求,综合考虑了未成年人身心健康和网络空间的规律特点,对现有的《未成年人保护法》、《网络安全法》和《个人信息保护法》进行了细化和完善。另一方面,我们也注意到《条例》在网络信息内容、个人信息保护以及网络防沉迷防治角度,也总结采纳了现有来自网信、工信、新闻出版、广电、文旅等主管部门的对互联网平台、网络直播、网络社交、网络游戏等产品业态的实务管理经验和现有机制,具有很好的落地监管和业务指导意义。


德和衡网络安全和数据合规团队在2022年3月《未成年人网络保护条例》(征求意见稿)出台之际,做过一轮征求意见稿的解读,其中包括《条例》重点内容介绍,与《儿童个人信息网络保护规定》的衔接,以及对未成年人服务企业的合规整改要求。


【《未成年人网络保护条例(征求意见稿)》重点内容介绍与合规建议】


本篇文章中,我们将重点分析《条例》正式稿与一年半之前的征求意见的改进要点,总结《条例》内容突出亮点,并对《条例》未来落地实施中仍需关注的监管或合规要求进行提示。


二、《条例》正式稿改进要点


2022年3月的第三次《条例》征求意见已经比较全面涵盖了未成年人网络保护的方方面面,框定了与正式稿同样的有关网络素养培育、网络信息内容规范、个人信息网络保护以及网络沉迷防治的四个规制方面。最终,正式稿在促进未成年人网络素养、惩治网络霸凌、未成年人权益侵害强制报告制度、干预“戒网瘾”乱象、法律责任部分又有一些实质性的改进与完善。


(一) 网络素养促进方面


1. 青少年模式统一更新为未成年模式


在《条例》出台之前,监管部门在针对未成年人的专项保护活动中做过一些特殊保护机制的引导与尝试,其中以网络游戏、视频和直播领域的青少年模式最为典型。在征求意见稿中采用的“青少年模式”用语在《条例》正式发布时统一为“未成年人模式”用语,我们理解对之前已探索的青少年模式经验并无本质的不同,都是对特定服务中的未成年人保护提出具体要求。


2. 平台主体“网络平台服务提供者”


征求意见稿中的“重要互联网平台服务提供者”一词在《条例》正式稿中修订为“网络平台服务提供者”,为了进一步说明何为“未成年人用户数量巨大或者对未成年人群体具有显著影响的网络平台服务提供者”,在《条例》第二十条有关此类主体的特定义务中,第二款明确“未成年人用户数量巨大或者对未成年人群体具有显著影响的网络平台服务提供者的具体认定办法,由国家网信部门会同有关部门另行制定”。


我们理解“重要平台服务提供者”一词在《条例》第二十条中使用,易与《个人信息保护法》中的第五十八条规定,“提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者”这类主体划等号,但二者从关注的角度和义务并不完全一样,才有意避免使用相同术语。对比两者,《条例》新增了“定期开展未成年人网络保护影响评估”、“提供未成年人模式或未成年人专区等产品或服务”以及“应以显著方式提示未成年人用户享有的网络保护权利和遭受网络侵害后的救济途径”,并将定期发布人信息保护社会责任报告明确为“一年”。


(二)网络信息内容规范方面


1. 加强对涉及未成年人身心健康内容的规范


对网络产品和服务提供者,新增不得通过自动化决策方式向未成年人进行商业营销(第二十四条)。强调任何组织和个人不得向未成年人发送、推送或者诱骗、强迫未成年人接触含有危害或者可能影响未成年人身心健康内容的网络信息(第二十五条)。


2. 对网络霸凌提出了预警预防、识别监测和处置机制的流程要求,从如下两方面提出更详细有效的要求,包括:


●产品和服务设计:提供便利未成年人设置屏蔽陌生用户、本人发布信息可见范围、禁止转载或者评论本人发布信息、禁止向本人发送信息等网络欺凌信息防护选项。


●采用人工智能等新技术防范:应当建立健全网络欺凌信息特征库,优化相关算法模型,采用人工智能、大数据等技术手段和人工审核相结合的方式加强对网络欺凌信息的识别监测。


3. 新增了网络产品和服务提供者对制作、复制、发布、传播不当内容的用户的处置权利,并列举了具体的处置措施,包括警示、限制功能、暂停服务、关闭账号等,为实践中企业对于不当内容管理提供了切实可行的方案。


(三)个人信息保护


1.删除《个人信息保护法》和《儿童个人信息网络保护规定》重复性规定。


2.新增网络服务提供者的强制报告义务。


由于未成年人遭受侵害时可能由于认知原因或犯罪行为的隐蔽性,不能及时被监护人获悉并采取相应的保护和救济措施,《条例》在第三十八条第二款对网络服务提供者提出了强制报告义务,要求网络服务提供者通过未成年人私密信息发现未成年人可能遭受侵害的,应当立即采取必要措施保存有关记录,并向公安机关报告。


(四)网络防沉迷


1.网络产品和服务提供者公布防沉迷工作情况的期限,从定期明确为每年。


2.网络服务提供者须考虑不同年龄段的未成年人的认知和法律行为能力。


3.通过独立条款强化治理干预“戒网瘾”乱象,对近年来某些“网瘾治疗”恶性事件侵犯未成年人身心健康做出反思和回应。通过增加“虐待、胁迫”的手段列举,对判断“戒网瘾”行为的合法性提供依据。


(五)调整和细化法律责任


1.《条例》第五十三条调整了智能终端产品制造者、网络平台服务提供者等互联网企业的法律责任,针对《条例》第十九条第三款中规定的智能终端产品制造者以及智能终端产品销售者对于未成年人网络保护软件的安装或告知义务,法律责任由原先的最高违法所得10倍以上罚款变更为最高50万元罚款。


2. 针对个人信息保护方面的违规行为,例如未成年人个人信息访问最小授权原则以及未成年人私密信息的保护,《条例》提高了法律责任,由原先的最高100万元罚款变更为最高违法所得10倍以上罚款,并对拒不改正或情节严重的,责令暂停相关业务、停业整顿、关闭网站、吊销相关业务许可证或者吊销营业执照。


三、《条例》六大亮点


“一”个保护共同体


《条例》总则中通过规定网信办及其他政府部门职责;人民团体,社会组织和自治组织协助工作;学校和家庭的引导;网络产品和服务提供者、个人信息处理者、智能终端产品制造者和销售者的社会责任;新闻媒体机构的舆论引导和监督;任何组织和个人的投诉举报权利,充分缔造未成年人清朗网络空间。


“二”个角度相互促进


《条例》并不仅仅强调未成年人在网络空间内受保护的权利,也通过专章的网络素养促进内容,规定不同角色对社会责任,包括学校、家庭、社区、监护人、成年人网络保护软件、智能终端产品制造者和销售者,以及网络平台服务提供者,为未成年人形成健康积极的网络行为习惯,为建设健康的网络软硬件环境提出要求,保证未成年人的网络发展的权利。


“三”个阶段全方位保护


网络保护体现在不同角色不同阶段的全方位保护要求,包括在提前出台一系列防范措施,发现侵害未成年权益时的强制报告义务,以及有关部门或平台依法核实和处置。


“四”大类型网络服务重点关注


对网络游戏、网络直播、网络音视频和网络社交四大类型网络服务给与重点关注,既提出共性监管要求,例如分龄设置未成年人模式,消费风险防范,打击黑粉等不良行为,又针对特定网络服务提出具体的合规要求。


“五”大信息内容管理要求


对信息内容管理要求细致全面,可简单概括为五个方面:


●明确鼓励支持以及禁止发布传播的内容,以及需要显著提示的内容


●不得通过自动化决策方式向未成年人进行商业营销


●实施网络欺凌行为的内容管理


●实施网络犯罪行为的内容管理


●在线教育网络产品和服务提供者的更多内容管理要求


“六”大核心义务要求特定平台


对“未成年人用户数量巨大或者对未成年人群体具有显著影响的网络平台服务提供者”提出六项核心义务,包括:


●具体定期开展未成年人网络保护影响评估


●未成年人模式或者未成年人专区


●未成年人网络保护合规制度体系


●平台规则中未成年人的权利和救济


●对侵害未成年人的平台内产品或服务听着管理


640 (1).png


四、合规展望


《条例》是《未成年人保护法》中网络保护专章下位条例,将已有制度和成熟做法上升到制度层面,从现有规定可以看到很多针对不同主体承担不同保护义务的具有操作性要求,甚至技术方案建议,具有非常好的企业合规指导意义。尽管如此,我们也注意到仍有一些细节,在目前的监管实践中仍为空白或者有散乱要求,有待监管部门进一步释疑澄清。


1、 未成年人分龄化设计


《条例》统一使用未成年人模式,但也规定了分龄的合规要求。针对不同年龄阶段的幼儿、儿童、青少年以及其他称谓,如何设定年龄分层阶段,如何区分不同阶段下的权利义务,仍需在原有青少年模式的基础上继续积累实务经验,结合不同行业的现有标准入手,提出更细化的合规要求与指南。网信办已经于2023年8月发布关于《移动互联网未成年人模式建设指南(征求意见稿)》,要求移动智能终端、应用程序以及应用程序分发平台应根据不同年龄阶段的未成年人身心发展特点,通过评估产品的类型、内容与功能等要素,为不同年龄阶段用户提供适合其身心发展的信息和服务。分龄化设计根据以下5个年龄区间划分,即(1)不满3周岁;(2)3周岁以上不满8周岁;(3)8周岁以上不满12周岁;(4)12周岁以上不满16周岁;(5)16周岁以上不满18周岁。建议相关企业可以密切关注本指南的进展。


2、 未成年人保护技术标准或要求


《条例》第十九条规定两类软件或产品,即“未成年人网络保护软件”以及“专门供未成年人使用的智能终端产品”应当具有有效识别违法信息和可能影响未成年人身心健康的信息、保护未成年人个人信息权益、预防未成年人沉迷网络、便于监护人履行监护职责等功能。


但是相关技术标准和要求,有待国家网信部门会同国务院有关部门根据未成年人网络保护工作的需要予以明确,并就这个标准和要求,指导监督网络相关行业组织对未成年人网络保护软件、专门供未成年人使用的智能终端产品的使用效果进行评估。


3、《条例》第二十条的网络平台服务提供者的认定标准


《条例》第二十条规定 “未成年人用户数量巨大或者对未成年人群体具有显著影响的网络平台服务提供者”应满足六大合规义务,这是一大两点,但此类网络平台服务提供者的具体认定办法,还有待由国家网信部门会同有关部门另行制定。有待讨论的问题包括,未成年人的用户数量巨大以10万还是100万为标准?有显著影响可以从哪些角度来判断,例如是否从收集哪些或多少规模的未成年人的敏感个人信息,或者具有自动化决策的数据处理方式来判断?还有待监管实践来补充完善。


4、网络信息内容需显著提示的判定标准


《条例》第二十三条规定,网络产品和服务中含有可能引发或者诱导未成年人模仿不安全行为、实施违反社会公德行为、产生极端情绪、养成不良嗜好等可能影响未成年人身心健康的信息的,制作、复制、发布、传播该信息的组织和个人应当在信息展示前予以显著提示。


但不得不说,需要显著提示的信息的判断既受到不同行业主管部门的参与监管,又带有很强的自由裁量的成分受到该内容发布时间、地点甚至上下文的影响。举例而言,吸烟喝酒等影音画面可能均需要做出显著提示。《条例》虽然规定国家网信部门会同国家新闻出版、电影部门和国务院教育、电信、公安、文化和旅游、广播电视等部门,在前款规定基础上确定可能影响未成年人身心健康的信息的具体种类、范围、判断标准和提示办法,但依据我们的经验,该内容的体系化发布可能性不大,建议网络产品和服务提供者更多依赖现有广告法、互联网生态治理以及影音内容审核的经验,从严判断,尽可能做出相关内容的显著提示。


5、智能终端的定义和范围


《条例》第一次对智能终端做出定义,我们注意到该定义中对智能终端的三个特征总结是核心,即可以接入网络、具有操作系统、能够由用户自行安装应用软件,而作为示例的名词“手机、计算机等网络终端产品”应该扩充到涵盖以上三个特征的任何已有的和未来可能出现的终端,包括智能穿戴设备、智能电视机、提供公共服务和展示的智能大屏,这些都应是智能终端的组成部分,相关产品的制造商和通过这些智能终端提供服务的运营者,都应在本条例的规制范围内。


作者简介


史 蕾


北京德和衡律师事务所高级联席合伙人


史蕾,数字经济与人工智能业务中心秘书长。曾就职于环球资源(NASQ:GSOL)和奇虎360公司法务部,拥有十多年的公司内部法务工作经验。擅长股权激励、公司治理,数据合规及互联网产品合规风控;专注互联网游戏、直播、互联网教育与出版、大数据和网络安全等行业领域;新三板挂牌及公司治理。


手机:15810040811

邮箱:shilei@deheheng


杨雪娇


北京德和衡律师事务所联席合伙人


杨雪娇,北京德和衡律师事务所联席合伙人,毕业于浙江大学和德国慕尼黑大学。


擅长领域:民商事、互联网和TMT领域合规。


手机:13810048335

邮箱:yangxuejiao@deheheng

邵阳法律咨询律师事务所(www.tieqiaolawyer.com/falvzixun)提供邵阳市法律咨询24小时在线免费咨询


标签:

部分文章来源于网络,无法查证出处,我们只做学习使用,如不同意收录请联系网站马上删除