Re: [新聞] ChatGPT的「幻覺」根本無法解

看板Stock作者 (楓曦)時間8月前 (2023/08/10 10:25), 8月前編輯推噓46(5812375)
留言445則, 64人參與, 8月前最新討論串3/3 (看更多)
※ 引述《breeze0817 ()》之銘言: : 原文標題: : 技術專家:ChatGPT的「幻覺」根本無法解決 : 原文連結: : https://reurl.cc/N0KRy6 : 發布時間: : 2023/08/09 15:58 : 記者署名: : 鉅亨網新聞中心 : 原文內容: : 掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或 : 誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「 : 幻覺」受到技術與需求之間的限制,根本無法被解決。 : 財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發 : 現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編 : 造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命 : 的問題。 : 聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒 : 有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞, : 因此模型肯定會有一定的錯誤率。 : 包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者 : 都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠 : 的可靠性。 : 不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問 : 題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」 : Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美 : 聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A : I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這 : 將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。 : 心得/評論: : chatGPT訪問量一再下滑 : 一窩蜂投資ai伺服器去訓練語言模型的 : 越來越有元宇宙的fu糗了 : 散戶:這次不一樣!! 純論AI的話 這個問題是一定可以被解決的 討論chatGPT肯定是無解 頂多提升準確度 提升到你認知不到「錯覺」 我自己是覺得用錯覺這個詞來闡述這個問題 好像滿奇怪的 簡單思考一下就知道了 假設AI是個人 他肯定會有他自己的認知 他的認知來自於他的資料庫 但誰能保證資料庫裡面的資料100%是對的? 畢竟資料庫的資料也是人為產出,或是他的開發者灌入的 最終都會限縮於:「什麼是對的」的這個命題 並且有一個很弔詭的事情是這樣的 「你憑什麼認為AI給出的答案是錯的,便稱作幻覺,難道就是基於人類的共同認知嗎?」 這個東西討論到後面就變成哲學問題了,所以不贅述。 但核心概念是這樣 一個人,老師,教授,都會有認知錯誤,都會出錯,為什麼人工智能不會 基於什麼樣的原因,你覺得他能掌握100%的真理,這樣想想不就知道了 但是基於網速科技提升,資料處理能力加強,程序優化肯定能再進步 回歸前面所說的,只要把AI的範圍侷限性拉大,就能提升正確率阿 比如你設定這個AI就叫做金融投資機器人,甚至叫做台灣金融投資機器人 並且串聯所有台灣銀行、投資平台、各大當鋪的內部資料 那肯定是強的沒話說。 你期待一個AI機器人,能貫通世界上所有領域的事情,給你都是正確的答案 那肯定是不切實際。 更何況一定一堆人是這樣:「請給我一個完美的python程序。」 「幹,你這個根本不完美」 你自己都定義不出來,都不知道什麼叫做完美了,AI怎麼可能會知道 你怎麼連話都說不清楚~ 我自己是覺得AI很神啦,沒有戰文組的意思,但對於邏輯思考,表述能力不好的人來說 可能不好用 我在某平台上面,買了好幾次程式課,每次都沒有耐心看完,把作業做完。 chatgpt用了兩三天,已經弄出了兩個簡單的小程式,改善我工作上面的需求 平心而論,我就算認真把課程都上完,自己寫,寫個1個月,大概都弄不出來。 AI最強大的,就是他給你的資訊裡面,是有一定程度的正確率的, 你本來就要能分辨,什麼東西對你有用,然後再引導他幫助你,給出更多有用的資訊, 最後幫助你完成你的目標。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.136.194.220 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1691634339.A.FC5.html

08/10 10:26, 8月前 , 1F
他這個幻覺是幻覺一些很明顯的是
08/10 10:26, 1F
我舉個簡單的例子給你聽 我們弄個AI加法機器人,並且只接受0~3,4個數字 那麼這個機器人的正確率 就是100% ※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:28:41

08/10 10:27, 8月前 , 2F
比如日本二戰被兩顆原子彈轟炸,他會有機率說錯
08/10 10:27, 2F

08/10 10:28, 8月前 , 3F
回歸到程式面的話,簡單的程式也會幻覺。
08/10 10:28, 3F

08/10 10:29, 8月前 , 4F
比如一個程式函數只接受一個參數,他會寫兩個
08/10 10:29, 4F

08/10 10:29, 8月前 , 5F
你是不是不知道它幻覺產生的內容是什麼?有一些根本
08/10 10:29, 5F

08/10 10:29, 8月前 , 6F
錯誤的離譜。而且當你跟他要參考資料時,好一點會跟
08/10 10:29, 6F

08/10 10:29, 8月前 , 7F
你說它理解錯了。可怕一點的會生成不存在的參考資料
08/10 10:29, 7F

08/10 10:29, 8月前 , 8F
出來
08/10 10:29, 8F

08/10 10:30, 8月前 , 9F
他根本不是只參考資料庫給答案,是給出根本不在資料
08/10 10:30, 9F

08/10 10:30, 8月前 , 10F
庫中自己幻想的答案
08/10 10:30, 10F
承上述加法機器人的例子 你key了4和5進去,他會告訴你9 但也有可能,你key柯+大麻進去,他會回答你無罪 所以就看你有沒有要賦予他「創造」的能力 你要說他的思辨結果是不對的,一樣是看後面的演算法怎麼設定的 ※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:33:37

08/10 10:32, 8月前 , 11F
生成不存在的東西 這個人類最拿手的勒 打開電視隨便
08/10 10:32, 11F

08/10 10:32, 8月前 , 12F
4909新復興營收月增跟年增都100%
08/10 10:32, 12F

08/10 10:33, 8月前 , 13F
轉一間新聞台都是生成不存在的東西R XD
08/10 10:33, 13F

08/10 10:34, 8月前 , 14F
我覺得你要先把你的程式課上好,再來討論耶QQ
08/10 10:34, 14F
你就 去用 加法機器人就好了嘛 是不是肯定不會錯

08/10 10:34, 8月前 , 15F
股板一堆財經新聞 你能分辨哪些是真哪些是假嗎 嘻嘻
08/10 10:34, 15F

08/10 10:35, 8月前 , 16F
敎授那等級的人會知道他講的話是不是準確,就算表
08/10 10:35, 16F

08/10 10:35, 8月前 , 17F
面堅持是準確但內心會有底,但AI目前根本無法判斷
08/10 10:35, 17F

08/10 10:35, 8月前 , 18F
自己講的內容是否準確
08/10 10:35, 18F

08/10 10:35, 8月前 , 19F
齁齁 所以你就能判斷你眼前看到每件資訊都為真嗎XD
08/10 10:35, 19F

08/10 10:36, 8月前 , 20F
所以你會看到它一本正經在講幹話
08/10 10:36, 20F
範圍縮限就能解決這個問題 因為chatgpt目前的設定範圍,是無限

08/10 10:36, 8月前 , 21F
會說是幻覺, 就是因為這些不是資料生成
08/10 10:36, 21F

08/10 10:36, 8月前 , 22F
我會知道我不確定阿,知道差別嗎?
08/10 10:36, 22F

08/10 10:36, 8月前 , 23F
每天晚上隨便打開一台政論節目 不也都在講幹話
08/10 10:36, 23F

08/10 10:37, 8月前 , 24F
收視率還高到要命 大家愛看得要死 XDDDDD
08/10 10:37, 24F

08/10 10:37, 8月前 , 25F
比方說 他叫他寫程式, 他會丟給一個不存在的套件
08/10 10:37, 25F

08/10 10:37, 8月前 , 26F
一本正經的用這個套件開發程式碼
08/10 10:37, 26F
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:38:18

08/10 10:37, 8月前 , 27F
這已經不是錯不錯的問題
08/10 10:37, 27F

08/10 10:38, 8月前 , 28F
你跟不同信仰跟政治的人說話 感覺根本想平行宇宙
08/10 10:38, 28F

08/10 10:38, 8月前 , 29F
怎麼 判斷你的說法是正確 他的說法是錯誤?
08/10 10:38, 29F

08/10 10:38, 8月前 , 30F
你先了解一下為什麼會用「幻覺」來形容
08/10 10:38, 30F
我理解會什麼叫做幻覺 也理解錯誤和無中生有的差距 但只是因為他對於人類共同認知的答案 在不熟悉的環境下 有不精準的回答 這個回答來自於他的資料庫不夠精準 也來自於他的程式設計有問題 你要解決所謂幻覺 暴力破解法就是載入所有的問題和答案 但極端例子來說 11111111111111111111111111+1111111111111111111111111111 他可能就回答不了你了

08/10 10:39, 8月前 , 31F
大型網頁版siri,一樣撈資料回答一樣會出錯,都一
08/10 10:39, 31F

08/10 10:39, 8月前 , 32F
樣。
08/10 10:39, 32F

08/10 10:39, 8月前 , 33F
要捏造一個不存在的東西 這個人類更拿手 而且生活中
08/10 10:39, 33F
還有 372 則推文
還有 19 段內文
08/10 15:43, 8月前 , 406F
能查到正確的紀錄,潮汐懂規律也可以推算,可是gpt
08/10 15:43, 406F

08/10 15:43, 8月前 , 407F
常常給我最新2023的數據,我問資料庫不是只有到2021
08/10 15:43, 407F

08/10 15:43, 8月前 , 408F
?他就回對不起,2023不是紀錄不是推算,完全是瞎
08/10 15:43, 408F

08/10 15:43, 8月前 , 409F
掰…那會不會過去某一年其實也是瞎掰?問紀錄查不
08/10 15:43, 409F

08/10 15:43, 8月前 , 410F
到不是留白而是欺騙,這不是政治立場或人也會說謊
08/10 15:43, 410F

08/10 15:43, 8月前 , 411F
的問題,期待AI對這類基礎的問題回答正確且誠實應
08/10 15:43, 411F

08/10 15:43, 8月前 , 412F
該不算太高要求
08/10 15:43, 412F

08/10 16:10, 8月前 , 413F
AI幻覺是網軍問題 看看民進黨操作
08/10 16:10, 413F

08/10 17:02, 8月前 , 414F
隨便問電影劇情就會產生幻覺了啦 笑死 有夠難用
08/10 17:02, 414F

08/10 17:06, 8月前 , 415F
問A答B 根本創作文了 笑死
08/10 17:06, 415F

08/10 17:06, 8月前 , 416F

08/10 18:12, 8月前 , 417F
08/10 18:12, 417F

08/10 21:18, 8月前 , 418F
你才不懂AI是啥吧? AI哪來資料庫? 笑死人先去搞懂A
08/10 21:18, 418F

08/10 21:18, 8月前 , 419F
I是啥 你以為AI是靠資料庫來回答問題的嗎? 那資料庫
08/10 21:18, 419F

08/10 21:18, 8月前 , 420F
要多大? AI只有訓練庫 訓練出來的是一個複雜函式權
08/10 21:18, 420F

08/10 21:18, 8月前 , 421F
重 它是能回答任何問題的 亦即給定任何一輸入 它都
08/10 21:18, 421F

08/10 21:18, 8月前 , 422F
會有輸出 它的輸出準確率本來就不是百分之百的 即
08/10 21:18, 422F

08/10 21:18, 8月前 , 423F
使AlphaGo ChatGPT 用非常大量且高品質的資料訓練
08/10 21:18, 423F

08/10 21:18, 8月前 , 424F
相比於整個空間還是非常微小 你問它床前明月光 它
08/10 21:18, 424F

08/10 21:18, 8月前 , 425F
本來就可能會回答諸葛亮或任何人名 人類回答問題是
08/10 21:18, 425F

08/10 21:18, 8月前 , 426F
靠正確理解 AI回答是靠機率 靠貼近它所訓練的資料
08/10 21:18, 426F

08/10 21:18, 8月前 , 427F
它只是依照你的上下文選出一連串最可能的一個一個
08/10 21:18, 427F

08/10 21:19, 8月前 , 428F
字 這本來就是瞎扯 本來就是幻覺 只是當大部分回答
08/10 21:19, 428F

08/10 21:19, 8月前 , 429F
看起來都很順很合理時 你覺得沒問題 但是不合理的
08/10 21:19, 429F

08/10 21:19, 8月前 , 430F
例子還是會很多 懂? 這時你就可以看出AI只是拼字
08/10 21:19, 430F

08/10 21:19, 8月前 , 431F
而不是"真正"理解 但它依然實用 為何?當你逼近百
08/10 21:19, 431F

08/10 21:19, 8月前 , 432F
分之九十九的九九時 不管它是不是真正理解 就行為
08/10 21:19, 432F

08/10 21:19, 8月前 , 433F
來說跟真正理解也差不多了
08/10 21:19, 433F

08/10 21:40, 8月前 , 434F
本文裡已經不就說的很清楚了嗎? 現在沒有任何一種
08/10 21:40, 434F

08/10 21:40, 8月前 , 435F
模型能夠完全避免產生幻覺 因為它們的設計初衷只是
08/10 21:40, 435F

08/10 21:40, 8月前 , 436F
用來預測下一個單詞 其實根本就沒有什麼"幻覺" 那是
08/10 21:40, 436F

08/10 21:40, 8月前 , 437F
對一般外行人的說法 也沒有什麼編造答案 它本來就是
08/10 21:40, 437F

08/10 21:40, 8月前 , 438F
在編答案只是有時對有時錯
08/10 21:40, 438F

08/10 21:54, 8月前 , 439F
前面有人講的很對 所謂幻覺就只是錯誤率而已 幻覺這
08/10 21:54, 439F

08/10 21:54, 8月前 , 440F
個詞是人類用法 這個錯誤率是不可避免的 一個是你訓
08/10 21:54, 440F

08/10 21:54, 8月前 , 441F
練樣本有限 第二個是目前的演算法跟模型正確率還不
08/10 21:54, 441F

08/10 21:54, 8月前 , 442F
夠高
08/10 21:54, 442F

08/10 22:12, 8月前 , 443F
你問它原子彈丟幾顆? 它回答可以是3顆 2顆 5顆或任
08/10 22:12, 443F

08/10 22:12, 8月前 , 444F
何常用的數字 這表明它就不是用什麼資料庫來回答
08/10 22:12, 444F

08/10 22:12, 8月前 , 445F
而是每一次問它都可能會有些許不同
08/10 22:12, 445F
文章代碼(AID): #1ar4gZ_5 (Stock)
文章代碼(AID): #1ar4gZ_5 (Stock)