照片:美聯社插圖/彼得·哈姆林
律師和法庭文件顯示,世界各地的法官都面臨著一個日益嚴重的問題:使用人工智能創建並發送的法律意見存在錯誤,例如引用不存在的案件。
這一趨勢對於在工作中學習使用人工智能工具的人們來說是一個警示。許多雇主希望僱用能夠使用這項技術來執行諸如進行研究和撰寫報告等任務的工人。隨著教師、會計師和營銷專業人士開始使用聊天機器人和人工智能助手來產生想法並提高生產力,他們也發現這些程序可能會出錯。
法國數據科學家兼律師達米安·夏洛坦 (Damien Charlotin) 在過去六個月中列出了至少 490 起包含“幻覺”的訴訟,即包含虛假或誤導性信息的人工智能反應。他說,隨著越來越多的人使用人工智能,這一步伐正在加快。
“即使是更有經驗的玩家也可能會遇到問題,”夏洛廷說。 “人工智能可以是一件好事。這很棒,但也存在陷阱。”
夏洛廷是法國首都附近的巴黎高等商學院的高級研究員,他創建了一個數據庫來追踪法官裁定生成式人工智能產生虛假內容(例如捏造法律先例和虛假引用)的案件。據他介紹,大多數判決都是在美國的案件中做出的,原告在沒有律師的情況下代表自己。雖然大多數法官對錯誤發出警告,但也有一些法官處以罰款。
但即使是知名公司也提交了有問題的法律文件。科羅拉多州的一名聯邦法官裁定 MyPillow Inc. 的律師。在針對該公司及其創始人 Michael Lindell 的誹謗案中提交了一份聲明,其中包含近 30 條不准確的引述。
律師並不是唯一與人工智能缺點作鬥爭的人。出現在網絡搜索結果頁面頂部的人工智能評論通常包含錯誤。
人工智能工具也引發了隱私問題。所有行業的員工都應謹慎對待他們上傳或在提示中提供的詳細信息,以確保雇主和客戶的機密信息受到保護。
法律和勞工專家分享了他們的人工智能錯誤經驗,並描述了需要避免的危險。
將人工智能視為助手
不要相信人工智能會為您做出重要決定。一些人工智能用戶將該工具視為實習生,您向其分配任務並打算審查其已完成的工作。
“將人工智能視為工作流程的延伸,”專注於勞動力發展的非營利組織“Jobs for the Future”的首席執行官瑪麗亞·弗林(Maria Flynn)說道。她說,它可以充當撰寫電子郵件或研究旅行行程等任務的助手,但不要將其視為可以完成所有工作的替代品。
為了準備會議,弗林嘗試了她自己的人工智能工具,要求它根據她與團隊分享的一篇文章提出討論問題。
“提出的一些問題不適合我們組織的背景,所以我能夠給她一些反饋……她回復了五個非常深思熟慮的問題,”她說。
檢查準確性
弗林還發現人工智能工具存在問題,該工具仍處於試驗階段。有一天,她要求他收集有關她的組織在各個州所做工作的信息。但人工智能工具將已完成的工作和資助提案視為同一件事。
“在這種情況下,我們的人工智能工具無法區分提議的內容和已完成的內容,”弗林說。

照片:Hatice Baran,來自 Pexels
幸運的是,她擁有識別錯誤的製度知識。 “如果你是一個組織的新手,請詢問你的同事,結果對他們來說是否準確,”弗林建議。
雖然人工智能可以幫助集思廣益,但依靠它提供事實信息是有風險的。花點時間檢查人工智能生成的內容的準確性,即使很想跳過這一步。
亞特蘭大律師兼 Baker Donelson 律師事務所股東賈斯汀·丹尼爾斯 (Justin Daniels) 表示:“人們做出假設,因為這聽起來很合理,而且正確且方便。” “我必須回去檢查所有報價,或者當我查看人工智能總結的合同時,我必須回去閱讀合同內容,這有點尷尬和耗時,但這就是你必須做的。儘管你認為人工智能可以取代它,但它不能。”
小心註冊商
在會議期間使用人工智能進行錄音和做筆記可能很誘人。有些工具會根據所說內容創建有用的摘要並概述操作步驟。
但許多司法管轄區要求在錄製對話之前徵得參與者的同意。芝加哥費舍爾菲利普斯律師事務所合夥人丹尼爾·凱斯 (Daniel Case) 表示,在使用人工智能做筆記之前,請暫停並考慮是否應將對話保密。
她建議,在高風險情況(例如調查、績效評估或法律策略討論)中僱用協調員之前,請先諮詢法律或人力資源同事。
凱斯說:“人們認為,使用人工智能時應該獲得不同程度的同意,而這正在通過法院進行。” “我想說,在討論這個問題時,公司應該繼續關注這個問題。”
保護機密信息
如果您使用免費的人工智能工具來撰寫筆記或營銷活動,請勿向他們提供身份信息或公司機密。一旦您上傳此信息,其他人可能會使用同一工具找到它。
弗林說,這是因為當其他人向人工智能工具提出問題時,它會尋找可用信息,包括你透露的細節,以構建答案。 “它並不區分某件事是公共的還是私人的,”她補充道。
尋求教育
如果您的雇主不提供人工智能培訓,請嘗試嘗試使用 ChatGPT 或 Microsoft Copilot 等免費工具。一些大學和科技公司提供課程來幫助您更好地了解人工智能的工作原理以及它如何提供幫助。
弗林表示,教人們如何創建更好的人工智能線索的課程,或者為人們提供實踐的實踐課程,都是很有價值的。
儘管這些工具存在潛在問題,但了解它們的工作原理在它們無處不在的時代還是很有用的。
“學習使用人工智能的最大潛在陷阱是根本不學習如何使用它,”弗林說。 “我們都需要精通人工智能,而熟悉、掌握和熟悉該工具的第一步至關重要。”
© 2025 美聯社。版權所有。未經許可,不得出版、廣播、重寫或重新分發本材料。
引文:充滿錯誤的法律摘要顯示了人工智能工具在工作中的局限性(2025 年,10 月 30 日),2025 年 10 月 30 日檢索自 https://techxplore.com/news/2025-10-legal-limits-ai-tools.html。
本文檔受版權保護。除善意用於私人學習或研究目的外,未經書面許可不得複制任何部分。所提供的內容僅供參考。










