大语言模型正在成为人们工作生活中的得力助手,但正如不少人所担忧的那样,不谨慎使用可能带来麻烦,甚至引发法律风险。5月底,就有一名纽约律师办案时使用ChatGPT进行案例研究、撰写法律文件,结果被“坑”了。

故事的主人公名叫史蒂文·A·施瓦茨(Steven A. Schwart),他是一名在纽约州从事法律工作超过三十年的律师。2022年他经手了一起案件,原告罗伯托·马塔(Roberto Mata)起诉阿维安卡航空公司(Avianca),称因乘务人员疏忽导致他被一辆服务车撞伤了膝盖。

案件审理过程中,阿维安卡航空公司试图以诉讼时效,要求法官驳回此案。为了推进案件的进度,史蒂文提供了一份长达十页的简报,其中记录了六桩类似事故。然而,这份简报不仅没有帮助史蒂文达成目的,还给他引来了新的麻烦——因为航空公司的律师和法官无法找到简报里提及案件的任何证据。

法官因此要求史蒂夫提供其辩护词中引用案例的相关资料,他也很快给出了这些案例涉及的法院和法官、案件编号和日期等信息,甚至提交了完整的判决书。但是,阿维安卡航空公司仍旧找不到这些法庭记录,法律数据库中也遍寻不着。也因此,阿维安卡航空公司的律师指出,这些辩护词中的案例都是假的,“甚至可能有聊天机器人参与其中。”

当地时间5月24日,史蒂文在一份宣誓书中承认:在找案例时,确实咨询了 ChatGPT,同时为自己辩解道,由于之前未曾使用过ChatGPT,“因此不知道其内容可能是虚假的。”

史蒂文强调,当时他还要求ChatGPT确认案例发生。而这个乐于助人的聊天机器人给出了肯定的回答,说相关信息可以在“有信誉的法律数据库”中找到。

本案的法官在一份命令中写道,正在面临一个“前所未有”的情况:“一份法律呈文充满了虚假的司法裁定,并被虚假引用”。为此,他下令将于6月8日举行听证会,并考虑可能作出的处罚。

对轻信AI的行为,史蒂文表示“非常后悔”,称在没有核实ChatGPT提供的信息真实性的情况下,今后绝不会这样做。

采写/综合:南都记者胡耕硕

作者 admin