律師用 AI 工具查法律案例,竟然引用了假資料!ChatGPT 故意的?

律師用 AI 工具查法律案例,竟然引用了假資料!ChatGPT 故意的? 3

歡迎免費訂閱Google 新聞」、追蹤FB 粉專」、「IG」、「YouTube」、「Dcard」、「TikTok」或加入討論社團」,並且可以透過「小額贊助」方式支持本站所有媒體持續營運!

【文章在 2023-05-29 更新過內容】

前陣子有一個法院案件,一個律師用 AI 工具查法律案例(ChatGPT),結果引用了一些根本不存在的資料,這件事讓我們看到了 AI 在法律領域的潛在風險,包括錯誤資訊的傳播。

律師用 AI 工具查法律案例

律師用 AI 工具查法律案例,竟然引用了假資料!ChatGPT 故意的?

這個案件是關於一個男人告一家航空公司,說他在飛機上受了傷,原告的律師團隊在提交的文件裡,引用了幾個以前的法院案例來支持他們的論點,想要建立一個法律先例,但是航空公司的律師發現,有些引用的案例根本就不存在,就趕快通知了主審法官。

主審法官 Kevin Castel 對這種情況感到驚訝,說這是「前所未有的情況」,他下令要求原告的律師團隊解釋這件事。

原告的同事 Steven Schwartz 承認他用了 ChatGPT 來搜尋類似的法律先例,他在一份書面聲明裡表示深感遺憾,他「以前從沒用過 AI 做法律研究,也不知道它的內容可能是假的」。

提交的文件裡附上了 Schwartz 和 ChatGPT 的對話截圖。在對話裡,Schwartz 問 ChatGPT 一個特定的案例,Varghese v. China Southern Airlines Co Ltd,是不是真的。

ChatGPT 確認它是真的,還說這個案例可以在法律參考資料庫裡找到,像是 LexisNexis 和 Westlaw,但是後來查證發現這個案例根本不存在,這也讓其他由 ChatGPT 提供的案例產生了疑問。

這件事有什麼影響?

因為這件事,參與這個案件的兩位律師,Peter LoDuca 和 Steven Schwartz ,都被傳喚到 6 月 8 號的紀律聽證會上解釋他們的行為,這件事也引發了法律界對於 AI 工具在法律研究中適當使用的討論,以及制定全面性的指導方針來防止類似事件發生。

延伸閱讀:ChatGPT APP 來了!iOS 先行,Android 也快了

參考資料

最新文章

  • 文章內容有誤、文章轉載、文章需要更新或有商業合作需求,都歡迎透過「聯絡我」來一起聊聊。
  • 由於文章留言功能已經關閉,有其他問題請透過「綜合疑難雜症討論區」尋求幫助,這是一個互助討論的 FB 社群,我有時間也會親自回覆。
  • 部落格內某些連結是聯盟行銷,如果你透過連結購買產品,我會得到些許回饋,但不影響購買原始價格,詳細請參閱「免責聲明」。
  • 部落格全站內容皆為免費教學版權為本站所有,如要轉載請先來信溝通,詳細資訊請看「隱私權政策」。
  • 如果你願意的話,可以透過「小額贊助」管道支持本站。
Scroll to Top