
本文基于《网信部门严管"自媒体"未规范标注信息来源行为》(来源:中国网信网)整理。
近期,网信部门针对"自媒体"未规范标注信息来源问题开展专项治理,依法依约处置违规账号9.8万余个,涵盖国际时事、公共政策、AI生成内容及虚构演绎四大类典型场景。这一执法行动表面是平台内容管理的常规升级,实则触及网络法治建设中一个长期被遮蔽的核心命题:自媒体信息来源标注义务究竟是平台自治层面的合同附随义务,还是具有公法属性的法定义务? 当9.8万个账号因"未标注"而遭受处置时,其背后的法律依据、比例原则适用以及AI生成内容的标识规则,均暴露出我国网络内容治理体系中制度供给的结构性短板。舆论多聚焦于"自媒体乱象"的道德谴责,却鲜有从法理层面追问:在表达自由与信息真实之间,标注义务的法律边界究竟应当划在何处?
一、争议主张的法理拆解:表达自由与信息真实的规则冲突
围绕信息来源标注义务,存在两种看似对立却各有法理依据的主张路径。第一种主张强调表达自由与创作自由的神圣性,认为要求自媒体对所有信息标注来源构成对言论的事前审查,可能产生"寒蝉效应"。其法理逻辑根植于《宪法》对言论自由的保障,以及网络传播中"渠道中立"的技术伦理——平台与创作者作为信息通道,不应承担过重的内容溯源责任。特别是针对AI生成内容,若强制要求标注"AI生成",是否构成对技术中立原则的过度干预,这一质疑在生成式人工智能服务管理领域尤为突出。
第二种主张则坚持信息真实作为公共利益底线的优先性,认为在公共政策、社会事件及AI生成内容领域,信息来源标注是保障公众知情权与选择权的必要机制。其法律依据可追溯至《网络安全法》关于网络信息安全的一般性规定,以及《互联网信息服务管理办法》对互联网信息服务提供者真实性义务的框架要求。在AI生成内容领域,《生成式人工智能服务管理暂行办法》已明确服务提供者需对生成内容进行标识。此次通报中,金毛抱小孩、大猩猩护崽等AI视频未添加标识被处置,正是这一规则逻辑的直接延伸。而在虚构演绎类内容中,"未标注虚构演绎标签"之所以被规制,核心在于其通过剧情摆拍制造"真实幻觉",直接侵蚀公众对信息环境的理性信任基础。
两类主张的冲突本质上是个体表达自由与集体信息安全的价值位阶之争。然而,现行法律体系并未为这一冲突提供清晰的裁决规则,导致执法实践不得不大量依赖平台自治规则填补空白,这正是此次专项治理引发法理争议的深层根源。
二、深层根源透视:制度空白与规则位阶的结构性失衡
跳出个案处置,此次大规模账号处置行动映射出我国网络信息内容治理的三重制度困境。
其一,信息来源标注义务缺乏系统性法律规范。 现行《网络安全法》《数据安全法》《个人信息保护法》构建的网络法治框架,侧重于数据安全与个人信息保护,对信息内容本身的"来源标注"缺乏专门规制。此次通报的四类情形——国际时事、公共政策、AI生成、虚构演绎——其标注要求散见于部门规章、平台规则及政策性文件中,尚未形成统一的法律概念与义务体系。这种"规则碎片化"导致自媒体创作者难以形成稳定的行为预期,也使得执法依据的权威性与可预期性受到质疑。当9.8万个账号因同一类行为被处置时,其背后的法律规范却呈现"多源低位阶"特征,这不符合全面依法治国背景下"规则之治"的基本要求。
其二,AI生成内容标识规则面临技术迭代与法律滞后的结构性矛盾。 生成式人工智能的爆发式发展使"真实"与"虚拟"的边界日益模糊,但现行规范对"AI生成标识"的技术标准、责任主体与豁免情形缺乏细化规定。通报中涉及的AI视频案例,其处置依据主要是部门规章层面的原则性要求,尚未上升到法律或行政法规层面。这种低位阶规范难以应对深度伪造、实时换脸等技术的快速演进,也无法为跨境AI服务提供明确的合规指引。
其三,平台治理权与公权力的边界模糊。 此次通报中"依法依约处置"的表述颇具深意——"依法"指向行政监管,"依约"指向平台用户协议。当大量账号因违反平台标注规则而被处置时,实质上是平台自治权与行政监管权的叠加适用。然而,平台作为私主体,其规则制定权缺乏透明程序与司法审查机制;行政机关借助平台规则实现治理目标,虽具现实必要性,却可能稀释公权力行为的明确性与可救济性。这种"公私合作治理"模式在效率上具有优势,但在法治层面却构成对"权力法定"原则的挑战。

三、独立观点与延伸预判:从平台自治到法定义务的制度跃升
核心判断:信息来源标注义务应当从当前的平台自治规则与部门规章层面,尽快上升为法律层面的系统性义务,并建立区分场景、分级分类的标注标准体系。 简单地将标注义务完全交由平台自治,既无法保障规则的统一性与权威性,也难以遏制平台为追求流量而放松审核的冲动;反之,若采取"一刀切"的法定强制标注,又可能窒息信息传播效率与创作活力。因此,未来制度设计的核心在于建立"法律设定底线、行政法规细化标准、平台承担执行与补充责任"的三层架构。
对同类法治实践的影响预判:
第一,专门立法或司法解释有望在两年内出台。随着AI生成内容的泛滥与深度伪造技术的成熟,仅依靠《生成式人工智能服务管理暂行办法》等低位阶规范已难以应对治理需求。可以预见,立法机关或将通过修订《网络安全法》或制定专门的信息内容标识法规,将信息来源标注、AI生成标识、虚构演绎标签等义务纳入统一法律框架,明确违法后果与责任主体。
第二,平台审核义务将从"事后处置"转向"事前拦截+溯源存证"。此次9.8万账号被处置,表明当前治理仍依赖事后惩戒。未来,随着标注义务的法定化,平台将被要求建立更为严格的内容发布审核机制,将"标注"设为短视频发布的必经环节——正如网信部门在通报中所明确提出的方向。这意味着平台的注意义务与合规成本将显著上升,可能重塑整个内容产业的竞争格局。
第三,虚构演绎与AI生成内容的"标识豁免"规则将成为新的争议焦点。并非所有AI辅助创作或剧情演绎都需要强制标注,如何在保护公共利益与尊重创作自由之间划定技术红线,将催生一系列行政诉讼与民事侵权判例。司法机关需要在个案中逐步明确"足以误导公众"的认定标准,形成类型化的裁判规则。
内容合规声明:本文基于《网信部门严管"自媒体"未规范标注信息来源行为》(来源:中国网信网)整理撰写,所有涉及的法律规范、机构名称、政策表述均经核对确认现行有效。如有引用不当或信息更新,请以官方最新发布为准。法治中国建设网致力于提供权威准确的法治资讯,欢迎监督指正。
【特别说明】本文所配图片为概念性示意图,并非现场实拍照片,其作用在于辅助读者更直观、深入地理解文章所阐述的内容,特此说明。