
本文基于《"AI时代,法律人的出路何在?"主题宣讲活动举行》(来源:法治网)整理
当你把一份合同纠纷丢给ChatGPT,让它帮你写答辩状;当你用DeepSeek分析几十份裁判文书,预测案件走向——这些操作在技术上只需要几秒钟,但在法律上,一个关键问题被大多数人忽略了:AI吐出来的答案,在法律上到底算"谁说的"?如果它错了,造成的损失谁来兜底?
2026年1月8日,北京图书订货会现场,73岁的法律实验室创始人、深圳国际仲裁院首席技术顾问张力行,带着两本新书《法律人的Python课》与《法律人的智能体:ChatGPT与DeepSeek》,向在场法律人抛出了同样的追问。这位退休后自学Python、钻研大模型的资深法律人,用近两年时间摸索AI与法律的交叉地带。他的实践不是高深理论,而是一份"学习笔记",恰恰照出了智能时代法律服务中最容易被忽略的规则盲区:当机器开始像律师一样思考,法律上的"责任"和"权利"该怎么划分?
一、这个新问题和传统法律纠纷有什么不一样?
传统法律服务是清晰的"人对人"关系。你委托律师,律师用专业知识和执业资格为你服务,出了差错,律所和律师承担职业责任,赔偿路径明确。但AI介入后,这个链条变成了"用户—AI—平台—法律人"的复杂网络。
张力行在宣讲中分享了一个核心观察:ChatGPT能在合同起草、案例检索、合规审查中快速生成初稿,甚至能提炼裁判要点,但"核心的法律判断与决策仍需法律人主导"。这句话看似简单,实则点破了AI法律应用最棘手的矛盾——AI不是执业律师,它没有法律职业资格,也不承担任何职业责任,但在实际使用中,很多用户正在无意识地把AI的输出等同于"专业法律意见"。
这和传统纠纷的根本差异在于:责任主体被"雾化"了。过去打官司,你知道该告谁;现在如果因信赖AI法律建议而遭受损失,是告AI开发者算法有漏洞?还是告提供服务的平台审核不严?抑或是使用者自己未尽审慎义务?现行法律对这片灰色地带的切割,仍在逐步完善中。
二、现行规则下,什么能做什么不能做?
张力行的两本书被定位为"实用手册",目的是让法律人真正把AI工具用起来。但从法治视角看,"用起来"的前提是"知道边界在哪里"。结合现行法律规定与司法实践,以下几个行为边界已经相对清晰:
第一,AI生成的法律文书,不能直接等同于具有执业效力的法律意见。 ChatGPT、DeepSeek等工具提供的分析,本质上属于信息参考,而非《律师法》意义上的律师执业活动。普通用户用AI写起诉状、做法律分析,这个行为本身不违法,但风险自担。张力行在互动环节反复强调:"将AI的输出结果作为参考而非定论,同时通过人工核验确保法律意见的准确性。"这不仅是技术建议,更是责任切割的实操法则——使用者是AI输出的最终责任人,不能因"AI这么说的"而免除自身判断义务。
第二,经过人类实质性智力加工后的AI成果,才可能获得法律保护。 根据《著作权法》相关规定,作品须体现人类的独创性智力投入。纯AI自动生成、未经人工实质性修改的内容,目前司法实践倾向于不认定为著作权法意义上的"作品"。张力行教法律人用Python处理数据、用ChatGPT生成文书,但他始终强调"人工核验"这一动作。这意味着,法律人对AI输出进行实质性智力加工、注入专业判断后,最终成果才可能获得法律保护;直接复制粘贴AI生成内容对外使用,不仅质量难保,权利归属也存疑。
第三,算法偏见的风险,目前主要通过使用者审慎义务与平台安全义务双重规制。 张力行坦言,ChatGPT的算法偏见可能影响法律工作。依据《生成式人工智能服务管理暂行办法》等相关规定,AI服务提供者负有算法安全与内容审核义务;但使用者如果明知AI输出存在明显偏见或常识性错误,仍不加甄别地采纳并造成他人损害,使用者自身同样面临过错追责。简单说:平台要"尽量不出错",用户要"不盲信错"。

三、AI还在进化,普通人/从业者该注意什么?
规则尚未完全定型,但行为边界已经初现。面向不同人群,张力行的实践至少给出了以下可落地的避坑提示:
如果你是普通网民:
别把AI当律师用。 日常用AI查法条、写简单协议草稿可以,但涉及房产、婚姻、劳动、大额财产等重大权益事项,必须咨询持证法律专业人士。AI给你的只是"参考素材",不是"法律保险"。
保留使用痕迹。 如果你用AI生成了某份文书并对外使用,建议保留原始提示词、生成记录和后期修改痕迹。一旦发生争议,这些记录可以证明你的"人工介入程度",直接影响责任认定和权利归属。
如果你是法律从业者:
建立"人机协同"的内部留痕机制。 张力行建议法律人从Python基础学起,再到大模型实操。合规层面,这意味着你需要在律所或团队内部建立AI辅助工作的流程规范,明确哪些环节可以用AI辅助、哪些必须人工终审,并把审核记录存档。当事人追究的是你的执业责任,不是AI的产品责任。
守住专业判断的底线。 法律人的核心竞争力在于基于经验的法律推理,而非信息搬运。过度依赖AI导致法律意见出错,最终承担赔偿责任的是你和你的机构。
如果你是法律科技/AI从业者:
产品设计的合规前置。 在开发面向法律场景的AI工具时,应在界面显著位置设置风险提示,例如"本输出仅供参考,不构成法律意见",并尽量设置人工复核的交互节点,避免用户一键直接采用。
关注训练数据的合法性。 用裁判文书、合同模板训练法律AI模型时,需注意数据来源合规,避免抓取涉及商业秘密或个人隐私的敏感信息,防范数据层面的法律风险。
张力行73岁仍在啃Python代码,他的跨界被年轻法律人称为"精神激励"。这种学习热情本身传递了一个信号:AI不会取代法律人,但会用AI的法律人正在拉开与不会用AI者的差距。而在法治层面,比"学会用工具"更紧迫的,是弄清楚工具的边界在哪里。
智能时代的普法,不再是单向告诉公众"法律是什么",而是和公众一起探索"当法律遇上AI,规则该如何生长"。这或许就是AI普法栏目存在的意义——做那盏探照灯,照亮技术狂奔时最容易被忽略的规则盲区,让每一个人在享受AI便利的同时,守住行为的红线。
内容合规声明:本文基于《"AI时代,法律人的出路何在?"主题宣讲活动举行》(来源:法治网)整理撰写,所有涉及的法律规范、机构名称、政策表述均经核对确认现行有效。如有引用不当或信息更新,请以官方最新发布为准。法治中国建设网致力于提供权威准确的法治资讯,欢迎监督指正。
【特别说明】本通讯稿所配图片为概念性示意图,并非现场实拍照片,其作用在于辅助读者更直观、深入地理解文章所阐述的内容,特此说明。