
美國法庭近年大量出現律師在法律檔案中引用 AI 生成的虛假案例,情況愈趨嚴重。Ars Technica 分析 23 宗律師因 AI 幻覺(hallucination)而被處罰的案例,發現律師提出的藉口五花八門,但沒有一個獲法官接受。法律研究員 Damien Charlotin 創建的公開資料庫顯示,截至 2025 年 5 月已錄得 120 宗法庭發現 AI 生成虛假引用或不存在案例的個案,其中 2023 年有 10 宗、2024 年有 37 宗,而 2025 年首 5 個月已有 73 宗。單計 2025 年 7 月,全球多個司法管轄區公開報告涉及 AI 工具生成假法律引用的案件就超過 50 宗。
常見藉口一:不知道在用 AI
自 2023 年起,最常見的藉口是「不知道使用了 AI」。加州一名律師聲稱誤把 Google AI Overviews 當作普通搜尋結果。更多律師選擇將責任推給下屬或客戶。德州一宗案件中,律師不斷推卸責任,法庭最終要求他的客戶出庭作證,因為律師透露客戶在起草檔案中扮演重要角色。法官問:「你的客戶是律師嗎?」律師回答:「完全不是,法官大人,她只是幫我處理案件理論。」
另一常見藉口是聲稱不知道聊天機械人會產生幻覺內容。俄克拉荷馬州一名律師上月承認,他只是要求 ChatGPT「讓文字更有說服力」,沒想到會加入新引用。加州律師 Amir Mostafavi 使用 ChatGPT 及其他 AI 工具「提升」其上訴陳述書,然後用其他 AI 平台檢查錯誤,但從未親自閱讀「提升」後的內容。法庭發現他開審陳述書中 23 個案例引用有 21 個是虛構的,最終被罰 10,000 美元(約港幣 HK$78,000)。
技術問題成新藉口
隨着法庭對 AI 使用制定指引,律師開始搬出技術問題作藉口。紐約市律師 Innocent Chinweze 先承認使用 Microsoft Copilot,之後改口聲稱電腦被惡意軟件入侵,有人遠程修改他的檔案。法官 Kimon C. Thermos 形容這說法「難以置信且缺乏證據」,因為沒有原始草稿存在。Chinweze 要求專家作證證明曾被入侵,但午休後竟「戲劇性」地改變立場,撤回惡意軟件說法,回到原本「不知道 Copilot 會生成虛假案例」的解釋。
更令法官震驚的是,Chinweze 在聆訊當天提交的檔案仍使用 AI 生成內容,並附上免責聲明:「部分案例摘要由 AI 撰寫,可能產生不準確內容。進行法律研究前應閱讀完整案例。」法官痛批該檔案長達 88 頁、毫無結構、包含大部分引用案例的全文,且明顯部分由 AI 撰寫。最終 Chinweze 被罰 1,000 美元(約港幣 HK$7,800),並被轉介至紀律委員會。
視窗切換太麻煩?
阿拉巴馬州律師 James A. Johnson 的藉口更奇特。法官 Terry F. Moorer 在 10 月的判決中指出,Johnson 解釋因為「在手提電腦上用觸控板切換視窗太繁瑣」,所以在趕工時沒有使用州律師公會提供的 Fastcase 研究工具,改用 Microsoft Word 側欄自動出現的 Ghostwriter Legal 插件。
Johnson 當時正在外地醫院照顧手術後的家人,突然收到會議提前的通知,於時間壓力下「不幸被新程式的便利性誘惑」。法官不接受他聲稱理解 ChatGPT 不可靠、但不知道其他 AI 法律工具同樣有問題的說法,因為 Ghostwriter Legal 清楚標明使用 ChatGPT 作為預設 AI 程式。Johnson 的客戶當場解僱他,即使這可能令審訊大幅延誤。由於 Johnson 是受政府委任的律師,法官指出「公共資金並非無底洞,是有限資源」。最終 Johnson 被罰 5,000 美元(約港幣 HK$39,000)。
登入問題與其他藉口
喬治亞州一名律師聲稱誤交了草稿而非最終版本。愛荷華州律師則解釋因 Westlaw 登入問題而使用「次級 AI 研究工具」。雖然法庭對技術問題表示同情,但律師仍被罰款,因為她只在法庭要求解釋後才承認使用 AI。不過她可選擇繳付 150 美元(約港幣 HK$1,170)罰款或參加 2 小時法律道德培訓。
路易斯安那州一宗案件中,律師聲稱使用「Westlaw Precision AI 輔助研究工具」而非 Westlaw 獨立法律資料庫。法官要求查看研究記錄,發現該律師將研究外判給一名「目前被停牌」的律師,只是「假設」對方的錯誤來自 Westlaw AI 工具。最終該律師被罰 1,000 美元(約港幣 HK$7,800)。
「連續幻覺犯」被重罰
伊利諾州律師 William T. Panichi 至少 3 次因 AI 問題被罰。他在 7 月首次被罰時解釋,因「更換研究軟件期間」受 AI 誘惑。法庭對他自相矛盾的說法感到沮喪——他承認用 AI 生成陳述書、沒有做任何獨立研究、「幾乎沒有親自做任何工作」,同時又辯稱因案件特殊而收取較高費用。Panichi 被勒令退還 6,925.62 美元(約港幣 HK$54,000)費用,另加 1,000 美元罰款。他在 7 月向法庭承諾「如果幸運能繼續在上訴法庭執業,不會再犯」,但隨即在 8 月再被罰 2 次。
佛羅里達州律師 James Martin Paul 試圖少付賠償,辯稱若按對方律師要求支付,將成為「AI 生成案例法使用史上最高罰款」。但法庭裁定「只會令連續幻覺犯受益」,最終判罰超過 85,000 美元(約港幣 HK$663,000),指他的行為「遠比其他違規者嚴重」,屬「重複、濫用、惡意行為,不能視為合法律師執業」。
馬里蘭州律師推責法律助理
馬里蘭州律師 Adam Hyman 的離婚案檔案中出現多個不存在的案例引用,部分現有引用更與陳述書論點相矛盾。Hyman 辯稱「並無直接參與違規引用的研究」,將責任推給一名法律助理,聲稱對方使用 ChatGPT 尋找引用及編輯陳述書,並不知道 AI 幻覺的風險。法官 Patricia Grill Graeff 嚴厲批評:「律師承認他沒有閱讀引用的案例。相反,他依賴法律助理這名非律師人士,而對方顯然也沒有閱讀這些虛構的案例。我們認為這不符合稱職代表的要求。稱職律師會閱讀法庭檔案中引用的法律權威,確保它們支援所引用的主張。」
法官 Grill Graeff 指出,這類失誤通常不會發表意見書(設立法律先例),但她希望「處理一個在全國法庭反覆出現的問題」:法庭中的 AI。作為處理過程的一部分,Hyman 被要求承認不當案例引用的責任,因他是案件中唯一持牌律師。Hyman 及該法律助理均被要求完成「AI 道德使用的法律教育課程」,並實施全辦公室的引用核實程序。Hyman 也被轉介至律師申訴委員會接受進一步紀律處分。
數據反映專業人士失誤增加
數據顯示,雖然大部分錯誤由在法庭自我代表的人士造成,但律師及其他專業人員如律師助理造成的失誤正不斷增加。2023 年,10 宗被發現幻覺的案件中有 7 宗由自我代表訴訟人造成,3 宗由律師造成。上月,至少 23 宗發現 AI 錯誤的案件中,法律專業人士被發現有錯的佔至少 13 宗。法庭也開始習慣以罰款懲罰 AI 濫用行為,有 5 宗案件實施 10,000 美元或以上的處罰,其中 4 宗發生在 2025 年。
加州案例顯示對手律師也有責任
加州上訴法院一項新裁決為 AI 幻覺處罰案件增添有趣維度,提出律師有責任偵測虛構、AI 生成的引用——不只是在自己的檔案中,也包括對手的檔案。在 Noland v. Land of the Free, L.P. 案中,法庭雖對提交含假引用陳述書的律師判處 10,000 美元處罰,但也拒絕向對方律師判處訟費或費用,因為對方律師未能向法庭報告假引用,甚至未能偵測到它們。
英國法庭警告將嚴懲
英格蘭及威爾斯高等法院表示,律師需要採取更強措施防止工作中濫用人工智能。法官 Victoria Sharp 在綜合 2 宗近期案件的裁決中寫道,ChatGPT 等生成式 AI 工具「無法進行可靠的法律研究」。「這些工具可以產生看似連貫合理的回應,但這些連貫合理的回應可能完全錯誤。這些回應可能作出自信的斷言,但完全不真實。」
法官 Sharp 補充:「律師若不遵守這方面的專業義務,會面臨嚴厲處罰。」兩名律師均被轉介或自我轉介至專業監管機構。法官 Sharp 指出,當律師未能履行對法庭的責任時,法庭權力範圍從「公開訓誡」到實施訟費、藐視法庭程序,甚至「轉介至警方」。
法官呼籲停止走捷徑
伊利諾州破產法官 Michael B. Slade 似乎已對藉口失去耐性,呼籲所有律師停止使用 AI 捷徑加重法庭負擔。他直言:「坦白說,任何仍不知道使用生成式 AI 平台做法律研究是玩火的律師,根本是活在雲端。」
德州法官 Marina Garcia Marmolejo 指出,在「全國最繁忙的法庭之一」,法庭資源根本無暇處理虛假 AI 引用,更不用說研究其他法官如何回應此類案件。法官 Nancy Miller 則強調,即使對方律師或法庭首先發現錯誤,糾正責任永遠在簽署檔案的律師身上。「越早妥善糾正錯誤,撤回或修訂有問題的訴狀,浪費的時間就越少,成本也越低。」
科羅拉多州上訴法院在 Al-Hamim v. Star Hearthstone 案中首次處理法庭檔案中 AI 生成虛構引用的問題。雖然法庭最終決定不實施處罰,但發出明確警告,未來提交含虛構引用的檔案可能導致嚴重後果,包括罰款或駁回上訴。法庭指出,最簡單避免重罰的方法是及早承認使用 AI、主動向法律協會自首並參加相關課程,但許多律師卻選擇推卸責任,甚至說謊。
資料來源:Ars Technica
分享到 :
最新影片

Follow 我們 :
|
鍾意就快D Share啦!
|
|
|


