掃呢頁CODE去手機

2026年1月28日 星期三

法庭不再需要人類?英美加速引入 AI 仲裁 專家:人機協作將成司法新常態

法庭不再需要人類?英美加速引入 AI 仲裁 專家:人機協作將成司法新常態
美國法律系統長期面臨案件積壓、成本高昂等問題,令不少中小企業無法負擔法律協助。AmericanArbitrationAssociation(AAA)於 ...




美國法律系統長期面臨案件積壓、成本高昂等問題,令不少中小企業無法負擔法律協助。American Arbitration Association(AAA)於 2025 年推出名為「AI Arbitrator」的人工智能仲裁系統,期望透過 AI 技術加快爭議解決速度並降低成本。該系統由 AAA 與 QuantumBlack, AI by McKinsey 合作開發,並計劃在 2026 年將服務擴展至其他行業和更高價值案件。雖然 AI 在法律領域應用一直備受爭議,尤其是生成式 AI 容易產生虛假資訊問題。

AI 在法庭的應用現況

目前法院已在多方面應用 AI 技術,包括處理和分類法庭文件等行政工作及基本客戶支援。法官或其團隊會使用生成式 AI 整理案件時間表、搜尋文字和影片證據,甚至進行法律分析和詮釋。密歇根州最高法院最近與 AI 法律推理平台 Learned Hand 簽約,該平台標榜為「法律助理的法律助理」。

不過 AI 在法律應用上仍存在重大問題。2024 年至少有 2 名聯邦法官因使用生成式 AI 而發出包含虛假事實的法庭命令,事後需要公開道歉並制定新政策。早於生成式 AI 興起前,法院已使用演算法評估被告風險。2016 年 ProPublica 調查發現,這些系統預測準確度低,更會不成比例地將黑人被告評為高風險,即使控制犯罪紀錄和年齡等因素後情況依然。

生成式 AI 的法律詮釋隱憂

聯邦第 11 巡迴上訴法院法官 Kevin Newsom 曾在 2024 年發表意見,建議法官可考慮使用大型語言模型(LLM)分析案件中關鍵字詞的「一般意義」。他以一宗涉及在地下蹦床是否屬於「園景美化」(landscaping)的保險索償案為例,認為 ChatGPT 和 Google Gemini 的回應能幫助他理解該詞日常用法。

不過史丹福大學教授 Daniel Ho 等學者指出,Newsom 的假設存在缺陷。LLM 訓練過程會受多種因素影響,包括協助微調模型人員的地區語言習慣。研究發現 LLM 可能會引入外國法律概念(部分最高法院法官認為不應用於詮釋美國憲法),或反映「精英言論」而非一般用語。

更嚴重是 LLM 容易產生「幻覺」(hallucination),即憑空捏造資訊。2024 年一項研究測試 4 個 LLM,發現法律事實的幻覺現象「普遍存在」。即使 LexisNexis 和 Westlaw 等專業法律研究工具已採取措施減少幻覺,2025 年研究仍發現「幻覺問題仍然顯著存在」。

AI 仲裁員的運作模式

由 AAA 總裁兼行政總裁、前密歇根州最高法院首席法官 Bridget Mary McCormack 領導開發的 AI Arbitrator,目前只處理建築業純文件案件,例如承包商與業主之間基於合約的爭議。該系統基於 AAA-ICDR 建築案件中實際仲裁員的推理進行訓練,並經過人類仲裁員輸入進行校準。

系統運作流程如下:雙方提交立場和相關文件後,AI 會總結提交內容、整理索賠和反索賠清單、建立案件時間表,並列出關鍵爭議點。此階段雙方可就 AI 理解是否準確提供回饋。之後人類仲裁員介入,閱讀材料並驗證或編輯每個關鍵問題。AI 會就每個問題提供分析,仲裁員可加入回饋。最後 AI 草擬裁決及理據,由人類仲裁員編輯、驗證並簽署。

這類案件通常需時 60 至 75 天,協會預計使用 AI 仲裁員可縮短至 30 至 45 天,並節省至少 35% 成本。

AI 仲裁引發的實際爭議

AI 在仲裁中應用已引發實際法律爭議。在 LaPaglia v. Valve Corp. 一宗案件中,申請人向美國加州南區地方法院提出撤銷仲裁裁決請求,理由是仲裁員「將裁決職責外包給人工智能」。申請人指出仲裁員曾講述自己如何使用 ChatGPT 撰寫航空俱樂部文章以節省時間。

申請人認為這違背雙方對「由人類仲裁員提供經過充分推理的決定」的期望。雖然案件結果尚未確定,但提出了一個關鍵問題:仲裁員在多大程度上可以依賴 AI,而不會被視為放棄裁決職責。

全球 AI 法官的實踐

部分國家已在實踐中使用 AI 法官。中國的網上法院系統允許雙方同意由 AI 法官處理涉及貸款或域名所有權案件,如對結果不滿可申請人類審查。愛沙尼亞也已將 AI 法官概念付諸實踐。

哥倫比亞大學法律學者 Tim Wu 提出一種基於 Facebook 審核系統的法律結構,由 AI 法官處理簡單、標準案件,而測試現有規則界限和內部矛盾案件則由人類法官處理。

人類判決的不可取代性

雖然 AI 帶來效率提升,專家普遍認為某些司法工作仍需要人類參與。美國最高法院首席大法官 John Roberts 在 2023 年報告中指出,判斷被告在量刑時真誠程度,或處理「特定事實的灰色地帶」等工作,仍是人類法官獨特職責。

前聯邦法官 Paul Grimm 強調:「這些工具設計目的不是得出正確答案,而是基於查詢和訓練數據預測應有回應。」他認為法官絕不應只是檢查 AI 工作,更重要是「AI 工具不會宣誓」。

有趣的是 2025 年一項研究發現,黑人參與者較白人和西班牙裔參與者更傾向認為 AI 輔助保釋和量刑決定較公平,「顯示他們可能認為 AI 是一種通過限制司法酌情權來提升公平性的工具」。

效率與準確性的平衡

McCormack 認為 AI 可以解決法律專業 250 年來未曾更新的「作業系統」。她指出:「我們經歷了 4 次工業革命,卻從未更新作業系統。當我們法律系統建立時,市場完全不同,一對一服務模式適用於所有人。但這已不再是事實,而且幾十年來都不是了。」

不過美國公民自由聯盟(ACLU)高級政策顧問 Cody Venzke 提醒:「如果你想要更有效率的司法系統,讓法官能在每宗案件上花更多時間……簡單答案不是 AI,而是任命更多聯邦法官。」

Venzke 強調:「當你談論的是像司法程序這樣影響權利的事情時,你不會想要 95% 或 99% 的準確度。你需要極其接近 100% 的準確度。在 AI 系統達到那一點之前,它們真的沒有地方可以運作,尤其是獨立運作。」

資料來源:The Verge



分享到 :



最新影片



Follow 我們 :



650k粉絲


155k訂閱


55k跟隨者


22k粉絲


6.8kPosts

本文作轉載及備份之用 來源 source: http://unwire.hk
鍾意就快D Share啦!