随着生成式人工智能在法律行业的快速应用,部分法律从业者开始尝试用AI撰写法律文书、检索案例,甚至“生成”案例。但近期一则“律师用AI生成虚假案例被法院当庭识破”的事件,再次给行业敲响警钟:科技工具可以辅助法律工作,却绝不能替代专业判断,更不能成为逃避责任的挡箭牌。
一、AI“编”案例,当事律师错在哪儿
案件中,当事律师在提交代理意见时,为增强说服力,借助AI工具生成了若干“类似案例”。这些案例从案号、审理法院到裁判理由,都看似完整、严谨,但实际上在中国裁判文书网、各地法院公开裁判系统中均查无此案。承办法官在核查中很快发现造假问题,当庭质询后,律师承认相关案例为通过AI工具自动生成,并未逐一核实。
从专业规范看,这一行为至少有三重问题:
1. 违反律师职业基本伦理。律师在法庭上引用的法律依据、证据材料应真实、可核实。虚构案例本质上属于捏造证据或误导法院,无论主观上是否“故意”,客观后果都是损害司法公信力。
2. 违反程序诚信义务。民事诉讼法、律师法等均强调诉讼参与人有诚实陈述义务。以AI生成内容充当“判例依据”,属于对法院和对方当事人不诚信的程序行为。
3. 存在严重职业风险。根据现行律师执业管理规定,伪造、毁灭证据、妨碍依法审理案件,可被给予行业惩戒,情节严重的可能被停止执业,甚至吊销执业证书;若构成伪证、妨害作证等行为,还有可能触及刑事责任。
二、AI工具在法律领域能做什么,不能做什么
从技术属性看,当下主流生成式AI的本质是“模式预测”:通过学习海量语料,在给定输入后预测最可能出现的词序列。因此,它能“写得像”,但未必“事实真”。
在法律领域,AI可以发挥的正向作用主要包括:
1. 辅助检索信息。通过自然语言问答,快速锁定相关法律条文、典型案例、学术观点,显著提高人工检索效率。
2. 辅助梳理思路。对复杂案情进行事实要点提炼、争议焦点归纳、诉辩路径预演,帮助律师更系统地构建代理思路。
3. 辅助文书初稿。根据既有模板和指令,生成起诉状、答辩状、合同草案等初稿,由律师再行校对、修改。
但AI绝不能替代的核心能力包括:
1. 事实判断与证据审查。判断证据真伪、证明力大小、事实逻辑是否自洽,需要法律职业共同体长期训练形成的专业直觉和经验,不可能交给算法自动完成。
2. 法律适用与价值判断。同一条法律条文在不同事实情境下的适用,需要结合立法目的、司法政策、社会效果审慎衡量,这本质上是价值判断与责任判断,目前任何AI系统都不具备承担这种公共责任的主体资格。
3. 伦理把关与程序责任。律师不仅是技术代理人,更是法律职业伦理的承担者。是否引用某一证据、是否采用某种诉讼策略,往往牵涉当事人命运和公共秩序,必须由有执业资格的人类律师在清醒判断下作出决定。
因此,对律师而言,AI只能是“高级助手”,而不能成为“背锅的替身”。无论使用何种技术工具,署名的那一刻起,文书和观点都应视为律师个人的专业承诺,相关法律责任由律师本人承担。
三、律师使用AI的合规边界:四条“红线”
在AI广泛进入法律实务场景的背景下,律师和律所需要主动建立一套“AI使用合规框架”,至少要守住以下四条红线:
1. 不得将AI生成内容直接作为事实证据或裁判依据引用。
凡是涉及事实描述、证据列举、案例引用的内容,都必须经过人工查证。对于AI生成的案例、数据、引文,一律视为“线索”,而非“证据”。只有在权威数据库中查到原文并核对一致后,才能引用。
2. 不得隐瞒使用AI的事实。
在核心法律文书的撰写中大量使用AI,如涉及案件分析报告、法律意见书等,应在律所内部记录使用情况,并接受必要的质量抽查。在部分司法管辖区,法院已要求律师对AI工具使用情况进行披露,以便法官合理审查。
3. 不得用AI规避应尽的勤勉义务。
律师法明确要求律师对受委托事务“尽职尽责”。单纯依赖AI提供的信息,而不进行人工复核、事实核查,属于违反勤勉义务。即使AI的结论“碰巧正确”,这一过程本身仍不合格。
4. 不得将保密信息无控制地输入公共AI系统。
许多在线AI工具会将用户输入数据用于后续训练,若律师把未公开的案情细节、商业秘密、个人隐私原样输入公共模型,将严重违反保密义务。合规做法是:
– 尽量在本地或受控私有化部署的模型中处理敏感信息;
– 必须使用公共模型时,应对关键信息做去标识化和必要模糊化处理。
四、AI法律工具应如何规范发展
从更宏观的视角看,律师“AI造案”事件不仅是个体失范,也暴露出当前法律AI应用在规范层面的空白。要避免技术“跑得太快、规则跟不上”,亟须在如下几个维度同步推进:
1. 行业规范层面:尽快出台法律职业使用AI的伦理指引。
律师协会、法官协会等行业组织可组织专家,对“AI辅助法律服务”的边界、风险、审查要求作出原则性规定,例如:
– 对AI生成内容的引用应负何种审查义务;
– 律师在何种场景中应主动披露AI参与情况;
– 如何界定因AI错误导致的损害赔偿责任归属等。
2. 技术产品层面:增强“可解释性”和“事实校验”功能。
法律AI产品应尽量为每一条结论提供可追溯的引用来源,如:
– 明确标注“本段内容由模型生成,仅供参考”;
– 对于引用的法条、案例,附上原始链接及检索路径;
同时,引入“事实校验模块”,对明显与已知数据库矛盾的信息自动提示风险,帮助使用者降低误用概率。
3. 司法实践层面:建立对AI生成内容的识别和应对机制。
法院一方面要强化自身的信息核查能力,防止AI辅助造假“混进”裁判体系;另一方面,也可以在适当场合通过司法政策明确:
– 以AI生成虚假材料误导法院的,可依法从严处理;
– 对规范、审慎使用AI的律师,不作“一刀切”否定,而是引导其在合规框架下发挥技术优势。
4. 法律教育层面:将“AI素养”纳入法学院课程和实务培训。
未来的法律人必须具备基本的AI风险意识和应用能力。法学院和继续教育机构应开设“法律+AI应用”课程,帮助学生和在职律师理解:
– AI的技术原理与能力边界;
– 如何设计安全、可控的使用流程;
– 如何在技术浪潮中坚守法律职业伦理。
五、科技向善的前提,是责任不“外包”给机器
从更长远的视角看,AI进入法律行业是大势所趋。它能够帮助律师处理大量重复性工作,让专业精力更多回到“人”与“正义”本身:如何更好地倾听当事人、如何设计更有温度的解决方案、如何在法律与人情之间找到平衡点。
但这一切有一个前提:不能把责任“外包”给机器。
对于法律职业共同体而言,当下最重要的不是“会不会用AI”,而是“在使用AI时,是否仍然保有清醒的专业自觉”:
– 任何写上自己名字的文书,都要敢于对每一个字负责;
– 任何引用的事实和案例,都要确信自己“查过、核过”;
– 任何技术工具的背后,都要有一个真正懂法律、懂人、懂边界的专业人士。
律师用AI生成虚假案例的事件,最终会成为AI法律应用发展史上的一个小注脚。它提醒我们:真正重要的,不是AI能做什么,而是法律人愿意为哪些事亲自负责。