[新聞] ChatGPT幫律師寫文件 結果一堆假判例

看板Stock作者 (Player2(請投入硬幣))時間10月前 (2023/05/28 19:17), 編輯推噓99(11516138)
留言269則, 124人參與, 10月前最新討論串1/1
-------------------------------發文提醒---------------------------------- 1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處份。 2.連結過長請善用 https://bit.ly/ 等縮網址服務,連結不能點擊者板規1-2-2處份。 3.心得/評論請盡量充實,心得過短或濫竽充數將以板規 1-2-3、4-4 水桶處份。 4.發文請依照格式文章標明段落,不符合格式者依4-1刪文處分。 ------------------------ 按ctrl+y 可刪除以上內容。 ---------------------- 原文標題: ※請勿刪減原文標題 ChatGPT幫美國律師寫法庭文件 結果發明一堆假判例 原文連結: ※網址超過一行過長請用縮網址工具 https://ynews.page.link/PDVLX 發布時間: ※請以原文網頁/報紙之發布時間為準 2023年5月28日 週日 上午11:50 記者署名: ※原文無記載者得留空 原文內容: 聊天機器人ChatGPT近半年來爆紅,號稱不久後將能取代一堆文組工作;但科技專家也紛紛警告,ChatGPT可能自行編造內容,成為假新聞來源。美國一名律師在準備法庭文件時就讓ChatGPT來寫,結果引用的6個判例裡,沒有一個是真的,在法院紀錄裡根本找不到這些判例。 《紐約時報》27日報導,美國紐約一家律師事務所的律師史瓦茲(Steven A. Schwartz)協助客戶馬塔((Roberto Mata)打官司。馬塔自稱在2019年8月搭乘哥倫比亞航空公司(Avianca)班機從薩爾瓦多飛往紐約時,被空服員推的推車撞到膝蓋而受傷。事隔多時,他才打算控告航空公司。 曼哈頓法院今年3月駁回本案,稱訴訟時效已過。律師史瓦茲於是提交了一份10頁的文件,引用超過6項判例,包含旅客馬丁尼茲( Martinez)控告達美航空、旅客奇赫曼(Zicherman)控告大韓航空、旅客瓦吉斯(Varghese)告中國南方航空等,針對訴訟時效長篇大論了一番。 看起來很厲害,問題是,沒人找的到這份文件裡引用的判例。航空公司的律師找不到,法官本人也一頭霧水。法院訴訟紀錄上會載明判案的法院、法官、判決書編號和日期,照理說不可能找不到;航空公司委任的律師發現,史瓦茲提供的判例看起來似乎是出自聊天機器人的手筆。 史瓦茲本月25日在宣誓書裡承認,他使用了ChatGPT來準備法律文件。已經在紐約執業30年的他對法官表示,他不是故意要欺騙法庭或航空公司,這是他第一次用ChatGPT來準備開庭資料,先前從沒用過,所以不知道ChatGPT寫的東西「可能是假的」。 例如ChatGPT引用的「奇赫曼訴大韓航空」判例,聲稱是美國第11巡迴上訴法院2008年的判決。美國第11巡迴上訴法院的書記官調查後發現,ChatGPT提供的案卷編號確實存在,但是案件本身完全不相關。ChatGPT又用他編造的大韓航空去驗證另一起「瓦吉斯訴中國南方航空」,結果實際上也是沒這回事。最終,ChatGPT引用的判例裡,有6個是假的。 上當的律師史瓦茲對法官表示,他非常後悔依賴ChatGPT來工作。他甚至還有問ChatGPT說,「你提供的瓦吉斯訴中國南方航空是真的案例嗎?」ChatGPT回答「是的」。 但在史瓦茲進一步追問「你的資料來源是哪裡」時,ChatGPT道歉說,「對於先前的混淆,我深感抱歉」,然後提供了一份法律引證。史瓦茲再問,「你提供的其案例是假的嗎?」ChatGPT堅持:「不,我提供的其他案例都是真實的,可以在有公信力的法律資料庫裡找到。」 史瓦茲律師可能找不到那些判例,但本人可能將要成為新的案例。法官已下令6月8日舉行聽證會,針對律師提交這份充滿假判例的法律文件,討論潛在的制裁措施。 心得/評論: ※必需填寫滿30字,無意義者板規處分 有用chat gpt的人應該會有發現 其實搜尋一些消息會是亂湊的 還有些更誇張直接就是掰出來的資訊 如果沒有特別查證會過度相信他的統整資訊 不知道目前這個問題能不能解決 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.129.232 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1685272653.A.37D.html

05/28 19:19, 10月前 , 1F
資料庫更新
05/28 19:19, 1F

05/28 19:20, 10月前 , 2F
寫得很通順,但正確性需要仔細驗證。
05/28 19:20, 2F

05/28 19:21, 10月前 , 3F
笑了,自己要被告。
05/28 19:21, 3F

05/28 19:24, 10月前 , 4F
找不到就自己編一個 被抓包還會先強辯 很人性
05/28 19:24, 4F

05/28 19:24, 10月前 , 5F
這種敢用chatgpt幫寫也是很勇
05/28 19:24, 5F

05/28 19:24, 10月前 , 6F
你已經違規超貼新聞了,下次不用那麼興奮一直貼,
05/28 19:24, 6F

05/28 19:24, 10月前 , 7F
把時間留給其他事吧
05/28 19:24, 7F

05/28 19:26, 10月前 , 8F
會狡辯,已經是強AI了,歐印
05/28 19:26, 8F

05/28 19:27, 10月前 , 9F
居然訓練成蘇東坡了 怕
05/28 19:27, 9F

05/28 19:29, 10月前 , 10F
不要打醒本板的AI炒股夢喔
05/28 19:29, 10F

05/28 19:32, 10月前 , 11F

05/28 19:32, 10月前 , 12F
估計用免費的gpt3.5
05/28 19:32, 12F

05/28 19:32, 10月前 , 13F
沒差吧修改一下參數就好了別來黑啦
05/28 19:32, 13F

05/28 19:37, 10月前 , 14F
可憐,這位律師提出前根本沒看過書狀吧
05/28 19:37, 14F

05/28 19:37, 10月前 , 15F
這問題要解決不難吧,只要有專門針對法律去訓練,
05/28 19:37, 15F

05/28 19:37, 10月前 , 16F
應該就可以改善很多了
05/28 19:37, 16F

05/28 19:38, 10月前 , 17F
用完gpt 在用google選我正解
05/28 19:38, 17F

05/28 19:39, 10月前 , 18F
之前查專利號也是隨便給,還是要自己檢查過
05/28 19:39, 18F

05/28 19:39, 10月前 , 19F
GPT真的很有自信把一件胡扯的事情說成像真的一樣
05/28 19:39, 19F

05/28 19:40, 10月前 , 20F
這律師通用模型拿去搞專業領域好像誤會了什麼
05/28 19:40, 20F

05/28 19:41, 10月前 , 21F
跟人一樣不懂的也會胡說八道,但是chatgpt比較適合
05/28 19:41, 21F

05/28 19:41, 10月前 , 22F
作文整合,不適合直接搜索結果
05/28 19:41, 22F

05/28 19:41, 10月前 , 23F
為什麼我覺得是這位律師亂掰亂寫一通 然後推給
05/28 19:41, 23F

05/28 19:41, 10月前 , 24F
是chatGPT的錯?
05/28 19:41, 24F

05/28 19:42, 10月前 , 25F
我確定chatGPT會亂掰內容。我虛構兩個人名,問它
05/28 19:42, 25F

05/28 19:42, 10月前 , 26F
誰比較厲害,他還是煞有其事地完成分析。
05/28 19:42, 26F

05/28 19:43, 10月前 , 27F
美國法律很重視判例,但是判例其實到各大法律數據庫
05/28 19:43, 27F

05/28 19:43, 10月前 , 28F
搜索會比較完善吧
05/28 19:43, 28F

05/28 19:43, 10月前 , 29F
chatGPT 本來就是文本產生器 你怎麼會認為是真的 XD
05/28 19:43, 29F

05/28 19:43, 10月前 , 30F
寫的很真但內容不實XD
05/28 19:43, 30F

05/28 19:45, 10月前 , 31F
就網路資訊很多是不正確
05/28 19:45, 31F

05/28 19:46, 10月前 , 32F
靠chatGPT寫完,自己都不用驗證內容嗎......
05/28 19:46, 32F

05/28 19:46, 10月前 , 33F
文組浮木
05/28 19:46, 33F

05/28 19:47, 10月前 , 34F
這麼懶的律師文件生成後判例不去餵狗,你覺得他會
05/28 19:47, 34F

05/28 19:47, 10月前 , 35F
用付費gpt4嗎?
05/28 19:47, 35F

05/28 19:49, 10月前 , 36F
文組:看吧 我們還是很重要
05/28 19:49, 36F

05/28 19:51, 10月前 , 37F
沒有搜尋功能當然只能用掰的,用錯工具怪工具喔
05/28 19:51, 37F

05/28 19:51, 10月前 , 38F
之前就說過好幾次了 這東西就尬聊APP 他會為了跟你
05/28 19:51, 38F

05/28 19:51, 10月前 , 39F
尬聊胡扯
05/28 19:51, 39F
還有 190 則推文
05/29 07:24, 10月前 , 230F

05/29 07:50, 10月前 , 231F
AI具創造力!
05/29 07:50, 231F

05/29 07:52, 10月前 , 232F
笑死 一定是下載到Reddit的廢文
05/29 07:52, 232F

05/29 08:01, 10月前 , 233F
笑死 比唬爛三師還更會唬爛
05/29 08:01, 233F

05/29 08:04, 10月前 , 234F
有玩過的就知道 假訊息假資料甚至明顯錯誤都有
05/29 08:04, 234F

05/29 08:08, 10月前 , 235F
都跟你說是「生成式」AI了
05/29 08:08, 235F

05/29 08:27, 10月前 , 236F
設計者又沒給他判例資料庫。。。頂多教他怎麼寫判
05/29 08:27, 236F

05/29 08:27, 10月前 , 237F
例吧
05/29 08:27, 237F

05/29 08:28, 10月前 , 238F
有用過都知道,設計者傾向讓AI瞎掰,不論有意無意
05/29 08:28, 238F

05/29 08:47, 10月前 , 239F
你找烏龍院作者怎麼會問gpt呢?人家是外國人,又不
05/29 08:47, 239F

05/29 08:47, 10月前 , 240F
能聯網,你至少要讓外國人聯網吧
05/29 08:47, 240F

05/29 09:07, 10月前 , 241F
覺卿:台灣應該將AI引進司法
05/29 09:07, 241F

05/29 09:14, 10月前 , 242F
就是不希望你們抄功課的設定呀
05/29 09:14, 242F

05/29 09:34, 10月前 , 243F
它不是搜尋引擎 要說幾次
05/29 09:34, 243F

05/29 09:48, 10月前 , 244F
真的,一堆人都以為gpt是搜索引擎,又直接問中文問
05/29 09:48, 244F

05/29 09:48, 10月前 , 245F
題,gpt沒有被餵這些資料,還要翻成英文去搜索,重
05/29 09:48, 245F

05/29 09:48, 10月前 , 246F
點gpt又不能聯網,你又在那邊嫌難用
05/29 09:48, 246F

05/29 09:53, 10月前 , 247F
人家都跟你說是chat了 ....
05/29 09:53, 247F

05/29 09:54, 10月前 , 248F
律師是看不懂英文逆
05/29 09:54, 248F

05/29 09:57, 10月前 , 249F
GPT沒有資料的時候就會用雲的啊,厲害的地方是他不
05/29 09:57, 249F

05/29 09:57, 10月前 , 250F
會讓你覺得是編出來的XD
05/29 09:57, 250F

05/29 09:59, 10月前 , 251F
北七喔用這種明顯免責的東西= =
05/29 09:59, 251F

05/29 09:59, 10月前 , 252F
這律師牌怎麼考的啊
05/29 09:59, 252F

05/29 09:59, 10月前 , 253F
他拿的收入本來就對應他的責任跟風險誒
05/29 09:59, 253F

05/29 10:05, 10月前 , 254F
gpt4最大的問題是不知道會亂掰
05/29 10:05, 254F

05/29 10:17, 10月前 , 255F
自己的作業自己寫
05/29 10:17, 255F

05/29 10:20, 10月前 , 256F
算是法院認證文組能力有問題了
05/29 10:20, 256F

05/29 10:29, 10月前 , 257F
New Bing:阿我怎麼都沒人用
05/29 10:29, 257F

05/29 10:42, 10月前 , 258F
ChatGTP是文字接龍,不是Google
05/29 10:42, 258F

05/29 11:03, 10月前 , 259F
這種AI就是將大量的隨機可能性收束到“趨近”模型跟
05/29 11:03, 259F

05/29 11:03, 10月前 , 260F
想要的結果(輸入值) 不要拿來做需要高度正確的事~
05/29 11:03, 260F

05/29 11:11, 10月前 , 261F
GPT一句抱歉就沒事了,但使用者要自行承擔造假後果
05/29 11:11, 261F

05/29 11:26, 10月前 , 262F
這個包是要OpenAI賠,還是簽名的律師賠?
05/29 11:26, 262F

05/29 12:01, 10月前 , 263F
GPT真的很會唬爛,唬爛王
05/29 12:01, 263F

05/29 12:02, 10月前 , 264F
看來又是一場大詐騙了
05/29 12:02, 264F

05/29 12:06, 10月前 , 265F
褻瀆司法的律師 關一關
05/29 12:06, 265F

05/29 13:55, 10月前 , 266F
我用bing GPT在引用資料來源上至少好得多,點開網址
05/29 13:55, 266F

05/29 13:55, 10月前 , 267F
都是正確的,只是編文章的內容相較之下弱得多,沒辦
05/29 13:55, 267F

05/29 13:55, 10月前 , 268F
法長篇大論
05/29 13:55, 268F

05/31 00:00, 10月前 , 269F
真“雲“端軟體
05/31 00:00, 269F
文章代碼(AID): #1aSpXDDz (Stock)