
本文基于《专家研讨AI时代青少年阅读话题》(来源:法治日报-法治网,2026年5月9日)整理。
当AI开始“辅助”阅读,我们究竟在守护什么?近日在江西南昌举办的AI时代下青少年阅读创新发展大会上,专家提出了一个表面关乎教育方法、实则牵动法律根基的预警:人工智能正在深刻改变青少年的认知模式,阅读能力面临结构性侵蚀。然而,公共讨论往往陷入“技术乐观派”与“深度阅读捍卫派”的表层对峙,忽略了其中最核心的法治命题——在AI全面渗透青少年日常阅读的现实下,法律应当如何重新界定“阅读权益”,又该为谁设定何种义务?这才是普法视角必须剖解的深层逻辑。
大会传递出的不同声音,恰好构成了当下争议的两个端点。一方主张“坚持价值引领”“强化技术向善”,暗含着对公权力引导与平台责任的规范性期待;另一方则警惕“AI对青少年阅读能力的侵蚀”,呼“回归沉浸式、自主化的深度阅读”,实则是在捍卫个体认知发展的自主权。这两种主张在法律层面分别对应着不同的规范依据与制度逻辑。
主张“价值引领”的一方,其法理基础深植于《未成年人保护法》确立的“最有利于未成年人原则”和“社会保护”“网络保护”专章。法律明确要求“国家、社会、学校和家庭应当加强未成年人网络素养宣传教育,培养和提高未成年人的网络素养”,并规定网络产品和服务提供者不得提供诱导未成年人沉迷的内容。当AI推荐算法以“高效”为名,将碎片化、刺激性强的信息持续推送给青少年,客观上削弱其持久阅读与深度思考的能力时,要求技术与内容提供者承担“向善”的注意义务,正是对上述法律原则的必然延伸。这并非泛泛的道德呼吁,而是对相关主体履行法定保护责任的明确提醒。
而强调“守护自主化深度阅读”的一方,同样有着坚实的权利法理作为支撑。深度阅读所培育的专注力、逻辑思维和独立判断能力,是青少年实现《宪法》赋予的教育权和发展权的关键路径。我国加入的《经济、社会及文化权利国际公约》亦要求缔约国确认人人有受教育的权利,教育应“促进人的个性和尊严的充分发展”。如果AI辅助阅读以牺牲认知发展的自主性为代价,那么即便效率再高,也可能对青少年“充分发展”的法定权利构成隐性妨碍。因此,对技术侵蚀的批判,在本质上是一种权利话语的表达,它要求法律在效率价值之上,为人的完整发展保留必要的制度空间。
争议双方的冲突,表面上看是技术应用路径之争,深层则是公共规制权力与个体发展权利之间的张力。法律在此处面临的核心困境,并非简单的“允许”或“禁止”,而是必须找到一套精密的平衡机制:既能激励技术创新、提升阅读效率,又能有效抑制技术对人的认知自主权的不当侵蚀。当前的法律供给显然尚未完成这一精密构造。

跳出会议讨论本身,AI时代青少年阅读面临的风险,暴露了现行法律体系在预防性规制和协同性保障上存在明显的“制度代差”。
其一,未成年人网络阅读的内容筛选标准存在空白。现行《未成年人保护法》和《未成年人网络保护条例》主要聚焦于违法和不良信息的屏蔽,即“不应看什么”。但AI高强度推送浅薄化、娱乐化但仍然“合法”的内容,导致青少年“看该看的却得不到”的问题,目前并无明确规范。法律尚未真正触及“积极阅读内容保障”的标准——我们缺少规定网络平台必须通过算法为青少年配置一定比例深度、系统化、有思维挑战价值的内容的法律机制。这种供给结构的法律规制缺失,是导致阅读质量滑坡的重要制度原因。
其二,教育领域生成式AI应用的审慎监管框架尚未建立。北京大学团队的研究表明,AI可以辅助更高效地阅读,但不能代替人类阅读。这既是科学结论,也应是法律红线的起点。然而,当前针对教育场景中生成式AI的规范,主要见于《生成式人工智能服务管理暂行办法》的原则性规定,对于AI直接介入青少年认知过程——如用AI进行书籍摘要、生成读书报告、替代自主理解和思考——这类可能侵害认知发展权的具体应用形态,缺乏分年龄段、分场景的精确监管标准。技术早已跑到规则前面。
其三,“四位一体”协同保障的法律机制过于模糊。大会提出“完善协同机制,凝聚青少年阅读合力”,这在法律上对应的是家庭、学校、社会、政府四方责任体系。但反观现行法律,《家庭教育促进法》主要规范的是伦理指导,未细化AI工具在家庭场景的阅读使用规范;《公共文化服务保障法》强调硬件和资源提供,但未回应数字阅读时代公共图书馆和学校如何主动优化阅读供给结构。各方责任的具体边界与协作接口不清,使得“协同”在实践中极易沦为口号。
上述制度空白的本质,是文化教育法治的回应能力跟不上技术对人认知结构的改造速度。传统的保护逻辑是“事后纠偏”,即内容出了问题再去管理。但AI深度介入阅读,改变的是青少年“如何想”的模式本身,其影响是前置性的、潜隐的。法律需要从单纯的“内容管理”升级为“认知环境塑造”,这是一种更高阶的制度使命。
基于上述分析,本文形成以下独立核心判断:AI时代青少年阅读问题的本质,不再是传统的内容健康与否,而是一场关乎认知权利的法律再分配。 法律界和政策制定者必须意识到,算法分发逻辑所形成的“信息茧房”和“思维浅表化”,正在客观上塑造一种新的不平等——习惯于浅阅读的青少年可能在认知能力上被提前固化阶层,而深度阅读习惯的从小养成则成为稀缺的成长资源。这已非单纯的教育议题,而是触碰到了未成年人发展权的实质平等保护。
因此,我们鲜明地主张:对AI介入青少年阅读,法律应从“被动内容防御”转向“主动认知环境建构”。具体而言,一是应当探索在《未成年人网络保护条例》实施细则或专门规范中,引入“青少年积极阅读内容推荐义务”,要求主流阅读和教育类平台必须通过算法设计,保障青少年接触系统化、有思维含量的优质内容的路径;二是应尽快研究制定教育场景生成式AI应用的行为指引,明确禁止AI直接生成读书报告、替代个人理解等可能造成认知剥夺的特定使用方式,守住“辅助而非替代”的法律红线;三是在“十四五”时期公共文化服务和教育法治的后续完善中,将“数字阅读素养保障”明确为学校和公共文化机构的法定义务。
对未来的影响预判是:此类规制一旦起步,将撬动一系列连锁变革。首先在类案裁判层面,当AI阅读工具引发未成年人认知能力损害争议时,司法将完成从“无据可判”到“有规则可依”的跃迁;其次在行业实践上,将倒逼技术企业从“流量至上”的推荐算法转向“发展适宜性”设计;最为重要的,是在法治文化层面,它将确立一个标杆性共识——在技术飞速变迁的时代,人尤其是未成年人的完整发展权,是任何算法都无权削弱的终极法益。法治中国建设,在此时此地正体现为为下一代守住思想的深度、思考的自主与精神的丰盈。
内容合规声明:本文基于《专家研讨AI时代青少年阅读话题》(来源:法治日报-法治网,2026年5月9日)整理撰写,所有涉及的法律规范、机构名称、政策表述均经核对确认现行有效。如有引用不当或信息更新,请以官方最新发布为准。法治中国建设网致力于提供权威准确的法治资讯,欢迎监督指正。
【特别说明】 本文所配图片为概念性示意图,并非现场实拍照片,其作用在于辅助读者更直观、深入地理解文章所阐述的内容,特此说明。