[新聞] 律師用ChatGPT幫寫訴狀慘了 被抓包引述案例「根本是假的」

看板Gossiping作者時間11月前 (2023/05/28 15:22), 編輯推噓68(75790)
留言172則, 100人參與, 11月前最新討論串1/1
律師用ChatGPT幫寫訴狀慘了 被抓包引述案例「根本是假的」 Ttoday國際新聞 | ETtoday新聞雲 https://www.ettoday.net/news/20230528/2508007.htm#ixzz82zItrTYZ 吳美依/綜合報導 美國紐約州一名律師提交起訴文件,卻被發現其中引用的6起法律案件「根本不存在」, 這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同 事面臨紀律處分,將在6月8日召開聽證會。 BBC、商業內幕等外媒報導,一名男子想對哥倫比亞航空提告人身傷害罪,他在律師事務 所「Levidow, Levidow & Oberman」聘請的法律團隊提交宣誓書,引述多個判例,試圖證 明此案也應該被審理。未料,航空公司的法律團隊卻向法官表示,他們根本找不到其中幾 起案件。 法官卡斯提爾(Judge Castel)在一份命令中寫道,「在提交的案件中,至少6起似乎是 虛假的法律判決,有著虛假的引述及虛假的內部引用。」他直言這是「前所未有的情況」 ,並要求原告法律團隊做出解釋。 調查後發現,原告律師洛杜卡(Peter LoDuca)並未參與這次法律研究,而把任務交給從 業逾30年的同事施瓦茨(Steven A Schwartz)。 施瓦茨在聲明中坦承使用ChatGPT尋找類似案例,並且對此感到「非常後悔」,但之前從 未使用AI進行法律研究,未來也不會在缺乏驗證的情況下使用AI「補充」法律文件內容。 他澄清,原告律師洛杜卡確實沒有參與這次案例研究,也不清楚是如何進行的。 根據施瓦茨提供的對話截圖,他反覆詢問幾起「不存在的案例」是否為真,ChatGPT給出 肯定回覆,還稱可以在萬律(Westlaw)及律商聯訊(LexisNexis)等法律資料庫找到。 ChatGPT自2022年11月推出以來,已經累計數百萬人使用,它可用類似人類的自然語言回 答問題,根據指令與要求生成內容,或者模仿特定寫作風格,但人們一直擔憂AI潛在風險 ,包括可能散播偏見、假消息及不準確資訊。 備註: 居然不查證也太混 ※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意 ※ 備註請勿張貼三日內新聞(包含連結、標題等) -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.35.55.69 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1685258538.A.86C.html

05/28 15:22, 11月前 , 1F
ChatGPT會一本正經胡說八道不是常識ㄇ
05/28 15:22, 1F

05/28 15:23, 11月前 , 2F
笑死,這麼懶
05/28 15:23, 2F

05/28 15:23, 11月前 , 3F
笑死 再不查證啊
05/28 15:23, 3F

05/28 15:23, 11月前 , 4F
上次找文獻差到被弄死
05/28 15:23, 4F

05/28 15:23, 11月前 , 5F
連判例去餵狗也嫌麻煩?
05/28 15:23, 5F

05/28 15:23, 11月前 , 6F
法律人不能抄錯嗎 奇怪匿
05/28 15:23, 6F

05/28 15:23, 11月前 , 7F
AI判案那天該到來了
05/28 15:23, 7F

05/28 15:23, 11月前 , 8F
律師也是專門一本正經胡說八道阿XD
05/28 15:23, 8F

05/28 15:23, 11月前 , 9F
這樣我也可以當律師了
05/28 15:23, 9F

05/28 15:24, 11月前 , 10F
美國林智堅
05/28 15:24, 10F

05/28 15:24, 11月前 , 11F
哈哈GPT胡說八道原來是真的
05/28 15:24, 11F

05/28 15:24, 11月前 , 12F
竟然有人不知道GPT的案例有可能是掰的
05/28 15:24, 12F

05/28 15:24, 11月前 , 13F
人家訓練是通用模型,又不是法律專用模
05/28 15:24, 13F

05/28 15:25, 11月前 , 14F
05/28 15:25, 14F

05/28 15:25, 11月前 , 15F
目前AI還沒辦法取代人類吧
05/28 15:25, 15F

05/28 15:25, 11月前 , 16F
律師:我的客戶被告了 請問該怎麼打贏
05/28 15:25, 16F

05/28 15:25, 11月前 , 17F
請給我六個相關案例
05/28 15:25, 17F

05/28 15:25, 11月前 , 18F
等到gpt5.0,說不定就可以通過美國律師
05/28 15:25, 18F

05/28 15:25, 11月前 , 19F
考試
05/28 15:25, 19F

05/28 15:26, 11月前 , 20F
再偷懶啊,都已經省助理費了還不查證
05/28 15:26, 20F

05/28 15:26, 11月前 , 21F
就說ai想取代律師還早的很
05/28 15:26, 21F

05/28 15:27, 11月前 , 22F

05/28 15:27, 11月前 , 23F
很敢捏,CHAT連法律條文都會找錯惹
05/28 15:27, 23F

05/28 15:27, 11月前 , 24F
可能用到gpt3.5而已
05/28 15:27, 24F

05/28 15:29, 11月前 , 25F
改成律師模式就可以了
05/28 15:29, 25F

05/28 15:29, 11月前 , 26F

05/28 15:31, 11月前 , 27F
笑死 你跟我說這是領高報酬的律師
05/28 15:31, 27F

05/28 15:36, 11月前 , 28F
網路界最大詐騙集團 chatgpt
05/28 15:36, 28F

05/28 15:36, 11月前 , 29F
欸不是耶 偷懶也是要檢查
05/28 15:36, 29F

05/28 15:37, 11月前 , 30F
會最先被chatgpt取代的是政客跟宗教家
05/28 15:37, 30F

05/28 15:42, 11月前 , 31F
是輔助不能全信.這傢伙太扯 懶成這樣.
05/28 15:42, 31F

05/28 15:43, 11月前 , 32F
律師還用免費版 可憐
05/28 15:43, 32F

05/28 15:45, 11月前 , 33F
ChatGPT會自己生成假資料來引述啊
05/28 15:45, 33F

05/28 15:47, 11月前 , 34F
一半都假的要再估狗查證
05/28 15:47, 34F

05/28 15:48, 11月前 , 35F
接下來就是花一堆成本檢驗的時代了
05/28 15:48, 35F

05/28 15:49, 11月前 , 36F
笑死xdd
05/28 15:49, 36F

05/28 15:50, 11月前 , 37F
ChatGPT是拿來作文,不是拿來找資料,怎麼
05/28 15:50, 37F

05/28 15:50, 11月前 , 38F
太混了吧 靠北
05/28 15:50, 38F

05/28 15:50, 11月前 , 39F
還有人搞錯
05/28 15:50, 39F
還有 93 則推文
05/28 18:33, 11月前 , 133F
超靠北 之前gpt推薦我的文獻也都假的
05/28 18:33, 133F

05/28 18:35, 11月前 , 134F
用gpt4 會比較準,然後記得查證啊...
05/28 18:35, 134F

05/28 18:37, 11月前 , 135F
律師不知道chatgpt的原理亂用
05/28 18:37, 135F

05/28 18:37, 11月前 , 136F
不查證太白癡..
05/28 18:37, 136F

05/28 18:46, 11月前 , 137F
ChatGPT用於詐騙最適合了
05/28 18:46, 137F

05/28 19:07, 11月前 , 138F
目前此AI最大缺點就是會一本正經的說謊
05/28 19:07, 138F

05/28 19:24, 11月前 , 139F
蘇軾:這個我懂
05/28 19:24, 139F

05/28 19:26, 11月前 , 140F
綠師最佳寫照
05/28 19:26, 140F

05/28 19:29, 11月前 , 141F
早就說這是最適合用來飽和式造謠的工具
05/28 19:29, 141F

05/28 19:39, 11月前 , 142F
也太混了吧 連檢查都不做
05/28 19:39, 142F

05/28 19:57, 11月前 , 143F
笑死,北七
05/28 19:57, 143F

05/28 20:08, 11月前 , 144F
都說是chat了
05/28 20:08, 144F

05/28 20:35, 11月前 , 145F
北七 都沒在查證
05/28 20:35, 145F

05/28 20:40, 11月前 , 146F
說4.0比3.5強是不是也是3.5唬爛的?
05/28 20:40, 146F

05/28 21:24, 11月前 , 147F
如果你想要做到快速回應使用者的留
05/28 21:24, 147F

05/28 21:24, 11月前 , 148F
言 你模型勢必需要捨棄一些東西才能
05/28 21:24, 148F

05/28 21:24, 11月前 , 149F
快速處理
05/28 21:24, 149F

05/28 21:25, 11月前 , 150F
4.0的確在理解上跟回應上都優於3.5
05/28 21:25, 150F

05/28 21:25, 11月前 , 151F
但是你要拿他寫的東西去應付真實問
05/28 21:25, 151F

05/28 21:25, 11月前 , 152F
題 這律師就是偷懶照抄活該啊
05/28 21:25, 152F

05/28 21:27, 11月前 , 153F
Ai的回應具有一定的隨機性,就好比
05/28 21:27, 153F

05/28 21:27, 11月前 , 154F
一個人唸了非常多的書,你要他突然
05/28 21:27, 154F

05/28 21:27, 11月前 , 155F
回應你一個問題他也是從記憶片段湊
05/28 21:27, 155F

05/28 21:28, 11月前 , 156F
出大概的答案交給你去參考
05/28 21:28, 156F

05/28 21:31, 11月前 , 157F
回應不會百分之百真實
05/28 21:31, 157F

05/28 21:56, 11月前 , 158F
還敢懶啊
05/28 21:56, 158F

05/28 22:57, 11月前 , 159F
這就是吹捧出來的產物,根本不堪正式使用
05/28 22:57, 159F

05/28 23:20, 11月前 , 160F
AI本體就是胡扯起頭
05/28 23:20, 160F

05/28 23:50, 11月前 , 161F
笑死人了 這就是文組智商嗎 哈哈哈
05/28 23:50, 161F

05/28 23:51, 11月前 , 162F
連ChatGPT這工具的本質都不懂 笑死
05/28 23:51, 162F

05/28 23:59, 11月前 , 163F
很多實際的說明 其實都是虛構的。
05/28 23:59, 163F

05/28 23:59, 11月前 , 164F
要多查證
05/28 23:59, 164F

05/29 01:54, 11月前 , 165F
我想到之前推文引用的一些經典劇跟小說內容
05/29 01:54, 165F

05/29 01:54, 11月前 , 166F
都錯的
05/29 01:54, 166F

05/29 03:15, 11月前 , 167F
chatgpt找文獻 全都腦補生成 當初被老
05/29 03:15, 167F

05/29 03:15, 11月前 , 168F
高吹成那鬼樣 還幫你找資料?
05/29 03:15, 168F

05/29 09:30, 11月前 , 169F
這種別說AI了 連google都用不好 那有人照抄
05/29 09:30, 169F

05/29 10:02, 11月前 , 170F
自己用了也要驗證啊,直接用結果.
05/29 10:02, 170F

05/29 10:02, 11月前 , 171F
笑了...
05/29 10:02, 171F

05/29 11:31, 11月前 , 172F
Gpt真的話一本正經胡說八道無誤xDDD
05/29 11:31, 172F
文章代碼(AID): #1aSm4gXi (Gossiping)