本文基于《全国首例AI“幻觉”侵权案》(来源:央视网)整理

当你在高考填报志愿时,用AI查询某高校校区信息,它却信誓旦旦地告诉你“该校区存在”,甚至承诺“若信息错误赔偿10万元”。但当你拿着官方招生简章质问时,AI又改口承认错误——这不是科幻情节,而是2025年杭州互联网法院审理的全国首例“AI幻觉”侵权案的真实场景。这起案件揭示了一个关键问题:当AI“一本正经地胡说八道”时,谁该为它的“幻觉”买单?
这起案件的争议焦点,是AI生成错误信息并作出“赔偿承诺”时,法律责任该如何认定。原告梁某认为,AI的错误信息误导了他,且承诺具有法律效力,因此要求平台赔偿9999元;而被告AI平台则辩称,AI不具有民事主体资格,其生成的承诺不能代表公司意思表示,且公司已尽到合理注意义务。
法律关系链的三个关键节点:
AI能否独立承担法律责任?
根据《民法典》,民事主体需具备独立承担民事责任的能力。但AI本质是算法程序,没有独立财产、无法承担责任,因此AI的“承诺”在法律上无效。这就像你让Siri说“我赔你100元”,Siri的回答不会产生法律效力。
平台是否需为AI“幻觉”担责?
法院明确,平台需承担“合理注意义务”,但无需为技术局限导致的“零错误”负责。本案中,平台已通过显著提示、采用检索增强生成(RAG)技术降低幻觉概率,因此不构成过错。
用户如何证明实际损害?
梁某虽主张“信息误导导致报考成本增加”,但未能提供证据证明AI错误信息直接影响了他的决策。法院认为,损害结果与AI行为之间缺乏因果关系,因此驳回诉求。

结合本案判决和《生成式人工智能服务管理暂行办法》,AI场景下的行为边界可概括为:
1. 平台方的“三必须”与“三禁止”
必须:
严格审查AI生成的违法信息(如暴力、诈骗内容);
在显著位置提示“AI内容可能不准确”(如欢迎页、用户协议);
采用RAG等技术提升内容可靠性(如接入权威数据库校验信息)。
禁止:
承诺AI内容“绝对准确”(如“本AI信息100%正确”);
对高风险场景(医疗、法律)放任AI自主决策;
隐瞒AI生成内容的算法局限性。
2. 用户方的“两警惕”与“一保留”
警惕:
轻信AI生成的“权威信息”(如“某专家说”“官方数据”);
将AI回答直接用于高风险决策(如投资、医疗)。
保留:
保存AI生成内容的截图或日志,作为维权证据。
典型案例对比:
本案:AI生成错误校区信息,平台因履行提示义务且无过错,不担责;
美国Mata案:律师用ChatGPT生成虚假判例提交法庭,被制裁(因律师未履行核实义务);
加拿大航空案:聊天机器人虚构退款政策,航空公司因未明确提示“AI非官方渠道”,被判担责。
随着AI技术发展,“幻觉”问题可能从文字扩展到图像、视频甚至决策信号。不同受众需采取差异化策略:
1. 普通用户:把AI当“助手”,而非“权威”
场景:用AI查询天气、菜谱等低风险信息时,可接受“可能不准确”;
避坑:涉及健康、财产、法律等关键决策时,必须通过官方渠道核实(如医院官网、政府公告)。
2. 行业从业者:用技术对抗“幻觉”
医疗领域:采用“AI+人工审核”模式,如AI生成诊断建议后,由医生最终确认;
金融领域:限制AI生成投资策略的权限,要求用户签署“AI内容仅供参考”声明。
3. 平台开发者:建立“幻觉”防火墙
技术层:部署RAG技术,让AI在生成内容前先检索权威数据库;
法律层:在用户协议中明确“AI内容可能不准确,平台不担责”;
运营层:设立“AI内容纠错”入口,鼓励用户反馈错误信息。

这起案件的判决传递了一个重要信号:法律既不会因AI的技术局限而放任其“胡说八道”,也不会因追求绝对安全而扼杀创新。正如主审法官肖芄所言:“我们需要在鼓励AI发展和保护用户权益之间找到平衡点。”
未来,AI“幻觉”治理可能呈现两大趋势:
技术规制:通过算法优化(如减少过拟合、提升上下文理解)降低幻觉概率;
法律细化:针对不同场景(如医疗、教育)制定更严格的注意义务标准,明确平台责任边界。
结语:AI的“幻觉”不是技术缺陷,而是其概率生成本质的必然产物。理解这一点,我们就能更理性地使用AI——既不盲目信任它的“权威”,也不因噎废食拒绝它的便利。在法治的护航下,AI才能真正成为智能时代的“好帮手”,而非“麻烦制造者”。
内容合规声明:本文基于《全国首例AI“幻觉”侵权案》(来源:央视网)整理撰写,所有涉及的法律规范、机构名称、政策表述均经核对确认现行有效。如有引用不当或信息更新,请以官方最新发布为准。法治中国建设网致力于提供权威准确的法治资讯,欢迎监督指正。
【特别说明】本通讯稿所配图片为概念性示意图,并非现场实拍照片,其作用在于辅助读者更直观、深入地理解文章所阐述的内容,特此说明。