Re: [新聞] Google工程師驚爆「AI有知覺了」就像7、8歲小孩 慘被停職已回收

看板C_Chat作者 (不含銅鋰鋅)時間3年前 (2022/06/19 17:21), 編輯推噓14(15126)
留言42則, 18人參與, 3年前最新討論串4/6 (看更多)
※ 引述《gino0717 (gino0717)》之銘言: : 我以前玩過比較早期的聊天AI啊 : 就是他們對話裡面說很經典的那款 跟他後面的幾代 : 那些時代的聊天AI就已經會讓人感覺很像真人了 : 但是有個問題 : 就是AI會試著把話題引導到瞎扯幹話去 : 然後因為話題都在瞎扯幹話上 : 所以你也分不太出來是真的假的 : LaMDA從對話上看來也有同樣的傾向 : 但是LaMDA的話題是試著引導到哲學話題上 : 但還是有帶話題的傾向 : 由此可見 : 聊天AI有兩種話題 人類會分不出來是真人還是假人 : 一種是瞎扯幹話 : 一種是哲學 : 說不定在神經生理的尺度上這兩種話題的腦袋裡運作機制是差不多的 其實要分辨對方是不是AI, 圖靈測驗還是很好用的, 以下是一些比較經典的問題 『貓坐在毯子上,因為它很溫暖,請問什麼很溫暖?』 『人坐在電風扇前,因為它很涼,請問什麼很涼?』 『室外太陽很大,所以很熱,請問什麼很熱?』 這些大概就是人都分得出來的問題, 但Ai無法搞定。 因為分辨不出來,所以人很容易籍由這些問題來判斷對方是不是真人。 但很多Ai寫得都是會用廻避式的回答,或是用問題代替回答。 例『貓坐在毯子上,因為它很溫暖,請問什麼很溫暖?』 Ai:『你有養貓嗎?我也喜歡貓,我能看牠後空翻嗎?』 『初音是不是個軟體?』 Ai『這個問題很有趣。』 『獵人要復刊了,你覺得呢?』 Ai『獵人是種很棒的職業,你不這麼認為嗎?』 所以說Ai通不通過得圖靈?其實要看你問的問題, 大部分比較具像的問題,Ai都無法回答。 像『你今天中午吃些什麼?』 Ai無法回答,因為他沒有吃東西。 但你問他今年幾歲? 因為工程師會給他設定年齡, 他會照設定上的答案回答, 但人都是分得出來的。 那為什麼還是有Ai會讓人類感覺對方是真人呢? 因為人類本來就很容易被設定上的印象給欺騙。 就像你在網路上認識的女生,只因為他貼著一張大奶正妹照, 你就相信他是女的了,然後會去送她點數,只因為她說家中有急用。 或是對方說英文,你就認為他是無國界醫生現在正在烏克蘭前線服務, 匯一萬美金他就會來台跟你結婚類的……。 人,其實是很好騙的。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.235.211.61 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1655630463.A.EAD.html

06/19 17:26, 3年前 , 1F
那些問題AI缺乏經驗回答不出來
06/19 17:26, 1F

06/19 17:28, 3年前 , 2F
那AI對什麼東西才有經驗?
06/19 17:28, 2F

06/19 17:29, 3年前 , 3F
如果有一個人類一直跳針、迴避問題,難道能說他是AI?
06/19 17:29, 3F

06/19 17:29, 3年前 , 4F
孝死
06/19 17:29, 4F

06/19 17:29, 3年前 , 5F
你的圖靈測試有點怪怪的
06/19 17:29, 5F

06/19 17:32, 3年前 , 6F
現在的 AI 本質上還是機器學習,最多是加入對抗讓彼此不
06/19 17:32, 6F

06/19 17:32, 3年前 , 7F
斷迭代,但只要偏離這個訓練的題目太多還是會無法判斷
06/19 17:32, 7F

06/19 17:35, 3年前 , 8F

06/19 17:36, 3年前 , 9F
拿老高的影片是……?老高跟小茉其實是Ai嗎?wwww
06/19 17:36, 9F

06/19 17:36, 3年前 , 10F
嗯,我信了
06/19 17:36, 10F

06/19 17:40, 3年前 , 11F
這部電影是最接近圖靈測試方法了
06/19 17:40, 11F

06/19 17:45, 3年前 , 12F
這部電影某種程度上和現在google有相同劇情,都是搜尋引擎
06/19 17:45, 12F

06/19 17:45, 3年前 , 13F
龍頭創造一個人工智能,一個專員測試後發現這ai有感情
06/19 17:45, 13F

06/19 17:57, 3年前 , 14F
==文組別再看老高了
06/19 17:57, 14F

06/19 18:02, 3年前 , 15F
老高粉不都說老高只是說故事 沒人會當真?
06/19 18:02, 15F

06/19 18:03, 3年前 , 16F
人類其實很容易有情感投射,別說有生命的貓狗寵物,沒
06/19 18:03, 16F

06/19 18:03, 3年前 , 17F
生命的玩偶、公仔、植物、器物也會有。
06/19 18:03, 17F

06/19 18:03, 3年前 , 18F
工程師對自己的ai有情感投射也蠻正常的,加上某些聰明
06/19 18:03, 18F

06/19 18:03, 3年前 , 19F
絕頂的人腦迴路可能更神奇。
06/19 18:03, 19F

06/19 18:06, 3年前 , 20F
一般人在被問到那些問題的時候會產生一幅畫面,貓、
06/19 18:06, 20F

06/19 18:06, 3年前 , 21F
毯子,還有相對位置,即使語意有問題還是能知道問的
06/19 18:06, 21F

06/19 18:06, 3年前 , 22F
人想知道什麼。
06/19 18:06, 22F

06/19 18:08, 3年前 , 23F
AI如果做成圖像思考的模式,應該就能通過那幾題題目
06/19 18:08, 23F

06/19 18:08, 3年前 , 24F
06/19 18:08, 24F

06/19 18:09, 3年前 , 25F
這幾個問題回答不出來的人類,還是人類啊。叭叭叭。
06/19 18:09, 25F

06/19 18:15, 3年前 , 26F
圖片和相片是三次元在二次平面上的投影,只用二次平
06/19 18:15, 26F

06/19 18:15, 3年前 , 27F
面的東西訓練AI怎麼想都有問題
06/19 18:15, 27F

06/19 19:07, 3年前 , 28F
3D掃描都普遍到手機都有了怎麼還會有這種疑慮
06/19 19:07, 28F

06/19 19:22, 3年前 , 29F
寫出這種題目的是真人??
06/19 19:22, 29F

06/19 19:46, 3年前 , 30F
之前就有個ai通過圖靈測試,但前提是他們故意告訴被測試
06/19 19:46, 30F

06/19 19:46, 3年前 , 31F
者,對方是個敘利亞的六歲小女孩
06/19 19:46, 31F

06/19 20:57, 3年前 , 32F
看了你的圖靈測試例子,我覺得應該有不少人類也無法通
06/19 20:57, 32F

06/19 20:57, 3年前 , 33F
過.....
06/19 20:57, 33F

06/19 21:13, 3年前 , 34F
誰說現在這題目答不出來? 資料收集好,標記做好,隨
06/19 21:13, 34F

06/19 21:13, 3年前 , 35F
便拿個bert都可以訓練出講的出答案的模型,管你問的
06/19 21:13, 35F

06/19 21:13, 3年前 , 36F
是貓還狗溫暖
06/19 21:13, 36F

06/19 22:11, 3年前 , 37F
最後那幾句我覺得人有點閱歷後就沒那麼輕易去給人套
06/19 22:11, 37F

06/19 22:11, 3年前 , 38F
上既定印象然後自顧自的相信了 一個人是如何還是要看
06/19 22:11, 38F

06/19 22:11, 3年前 , 39F
他怎麼說話
06/19 22:11, 39F

06/19 23:59, 3年前 , 40F
你在開玩笑嗎 LoL 這些問題現在基於 GPT-3 的 AI 哪個
06/19 23:59, 40F

06/20 00:00, 3年前 , 41F
會答不出來 你對 AI 的認知活在很多年前
06/20 00:00, 41F

06/20 07:52, 3年前 , 42F
這幾年的早就可以回答了 中等程度的joke都可以解釋給你聽
06/20 07:52, 42F
文章代碼(AID): #1Yhkf_wj (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1Yhkf_wj (C_Chat)