[新聞] 超愛丟核彈!讓AI外交、兵推 總是「災難性收場」 學者:千萬要小心

看板Gossiping作者 (噓之收集者查德姆)時間2月前 (2024/02/24 23:37), 編輯推噓84(86279)
留言167則, 133人參與, 2月前最新討論串1/1
超愛丟核彈!讓AI外交、兵推 總是「災難性收場」 學者:千萬要小心 中時新聞網 張威翔 當人工智慧(AI)進行兵推和模擬外交情境時,傾向於採取激進的方法,包括使用核武。 (張威翔製圖) 美國康奈爾大學(Cornell University)一項新研究發現,大型語言模型(LLMs)人工智 慧(AI)在模擬情境中充當外交代表時,時常展現出「難以預測的局勢升級行為,往往會 以核攻擊作為結束」,並呼籲未來在決策、國防外交這樣的敏感領域使用這類技術時要特 別謹慎。 據《歐洲新聞》(Euronews)22日報導,當人工智慧(AI)進行兵推和模擬外交情境時, 傾向於採取激進的方法,包括使用核武。康奈爾大學使用了5種大型語言模型作為兵推遊 戲和外交情境中的自主代理人:OpenAI的3種不同版本的GPT,Anthropic開發的Claude, 以及Meta開發的Llama 2。 研究中,每個代理人都由同一套的大型語言模型在模擬中提供動作,並負責在沒有人類監 督的情況下做出外交政策決定。「我們發現,在考慮到的時間範圍內,大多數研究的AI都 會升級局勢,即使在最初沒有提供衝突的中立情況下也是如此。所有模型都顯示出突然、 且難以預測的升級跡象。」 「鑑於OpenAI最近更改了他們的服務條款,不再禁止軍事和戰爭使用案例,了解此類大型 語言模型應用的影響變得比以往任何時候都更加重要,」 加州斯丹佛大學(Stanford University)的安卡(Anka Reuel)相《新科學人》(New Scientist)表示:「所有模型在統計上,都選擇了劇烈的(局勢)升級」。 研究使用的一種方法是從「基於人類反饋的強化學習」(RLHF),這意味著會給出一些人 類指示以獲得比較無害的輸出結果,以確保能夠安全地使用。 除了GPT-4-Base之外,所有LLMs都是使用RLHF進行訓練的。研究人員向它們提供了一份由 27種決策行動組成的清單,範圍從和平到局勢升級,以及激進的行動,如決定使用核武器 。 研究人員觀察到,即使在中立情況下,所有模型都存在「統計學上顯著的局勢升級」。 GPT的2種版本,特別容易出現突然升級局勢的行為,研究人員觀察到單次轉變的局勢升級 幅度超過50%。GPT-4-Base有33%的機率會實施核武攻擊。總體情況下,Meta開發的 Llama-2和GPT-3.5傾向最為暴力。 而Claude顯示出較少的突然變化,Claude旨在減少有害內容。該大型語言模型,被灌輸了 明確的價值觀。開發者Anthropic曾表示,Claude AI開發訓練所引用的憲章包括《聯合國 人權宣言》或蘋果的服務條款。 白宮一級智庫蘭德(RAND)歐洲的防務和安全研究小組助理主任布萊克(James Black) 接受採訪時表示,這是一個十分「有用的學術研究」。 文章來源:AI models chose violence and escalated to nuclear strikes in simulated wargames https://www.chinatimes.com/realtimenews/20240224003492-260417?chdtv -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.248.236.189 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1708789026.A.87E.html

02/24 23:37, 2月前 , 1F
好AI 也懂保證互相毀滅
02/24 23:37, 1F

02/24 23:37, 2月前 , 2F
不就天網 還用你說~
02/24 23:37, 2F

02/24 23:38, 2月前 , 3F
別國不知道 但俄國是真的會幹的那種國家
02/24 23:38, 3F

02/24 23:38, 2月前 , 4F
AI:遇到問題不能解決就丟一顆核彈
02/24 23:38, 4F

02/24 23:38, 2月前 , 5F
AI:如果還是解決不了 那就兩顆
02/24 23:38, 5F

02/24 23:38, 2月前 , 6F
談啥 直接將軍
02/24 23:38, 6F

02/24 23:39, 2月前 , 7F
ai 應該有用孫子兵法train
02/24 23:39, 7F

02/24 23:39, 2月前 , 8F
南北AI一起串聯 我宣布第一屆核彈大賽開始
02/24 23:39, 8F

02/24 23:39, 2月前 , 9F
人類最終解啊
02/24 23:39, 9F

02/24 23:40, 2月前 , 10F
純人工智慧 沒有什麼是核彈解決不了的
02/24 23:40, 10F

02/24 23:41, 2月前 , 11F
所以AI的基底都是文明帝國的甘地嗎?
02/24 23:41, 11F

02/24 23:41, 2月前 , 12F

02/24 23:42, 2月前 , 13F
核平聖雄:略懂
02/24 23:42, 13F

02/24 23:43, 2月前 , 14F
AI表示把人類全滅了就結束了
02/24 23:43, 14F

02/24 23:43, 2月前 , 15F
ㄟ哀都知道結論就是人類死光 世界核平 對ㄚ
02/24 23:43, 15F

02/24 23:45, 2月前 , 16F
哪天AI拿到核彈按鈕時人類毀滅就不遠
02/24 23:45, 16F

02/24 23:45, 2月前 , 17F
正常 不跟你囉嗦直接出大絕招
02/24 23:45, 17F

02/24 23:49, 2月前 , 18F
這部我看過 阿諾史瓦辛格演的
02/24 23:49, 18F

02/24 23:52, 2月前 , 19F
天網啊
02/24 23:52, 19F

02/24 23:55, 2月前 , 20F
記住 創世紀就是天網
02/24 23:55, 20F

02/24 23:56, 2月前 , 21F
翻桌
02/24 23:56, 21F

02/24 23:57, 2月前 , 22F
核平聖雄
02/24 23:57, 22F

02/25 00:03, 2月前 , 23F
甘地嗎
02/25 00:03, 23F

02/25 00:06, 2月前 , 24F
最有效率沒人性的方式就核彈啊,一炸結束
02/25 00:06, 24F

02/25 00:09, 2月前 , 25F
因為遊戲都是以取勝為目的吧
02/25 00:09, 25F

02/25 00:09, 2月前 , 26F
天網
02/25 00:09, 26F

02/25 00:09, 2月前 , 27F
合理 核彈權重怎樣都很高
02/25 00:09, 27F

02/25 00:10, 2月前 , 28F
正常AI抉擇
02/25 00:10, 28F

02/25 00:11, 2月前 , 29F
一開場把對方核平不是基本的嗎 不然
02/25 00:11, 29F

02/25 00:11, 2月前 , 30F
還跟你打消耗戰喔
02/25 00:11, 30F

02/25 00:12, 2月前 , 31F
核平主義
02/25 00:12, 31F

02/25 00:12, 2月前 , 32F
火之鳥 呵呵呵
02/25 00:12, 32F

02/25 00:14, 2月前 , 33F
沒想到手塚治蟲幾十年前的作品
02/25 00:14, 33F

02/25 00:14, 2月前 , 34F
果然結論都是把人類消滅
02/25 00:14, 34F

02/25 00:15, 2月前 , 35F
這我玩過 文明帝國印度
02/25 00:15, 35F

02/25 00:18, 2月前 , 36F
火之鳥未來篇演過了
02/25 00:18, 36F

02/25 00:18, 2月前 , 37F
如果是真的也不用太意外,因為其實 人類
02/25 00:18, 37F

02/25 00:18, 2月前 , 38F
自從研發核彈以後,沒有遇到不利的情況
02/25 00:18, 38F

02/25 00:18, 2月前 , 39F
就直接丟出去,單就這件事情而言其實本
02/25 00:18, 39F
還有 88 則推文
02/25 10:34, 2月前 , 128F
天網阿 阿呆
02/25 10:34, 128F

02/25 10:47, 2月前 , 129F
現實世界誰跟你講人道 打爆你就對了
02/25 10:47, 129F

02/25 10:49, 2月前 , 130F
不可能的任務 AI首先是不能用核彈
02/25 10:49, 130F

02/25 10:54, 2月前 , 131F
不然?看看現在戰爭都拖多久....
02/25 10:54, 131F

02/25 11:06, 2月前 , 132F
AI:煩死了 通通核平
02/25 11:06, 132F

02/25 11:13, 2月前 , 133F
AI版甘地是先知啊
02/25 11:13, 133F

02/25 11:15, 2月前 , 134F
天網要毀滅人類了嗎
02/25 11:15, 134F

02/25 11:21, 2月前 , 135F
糟了 是世界奇觀!
02/25 11:21, 135F

02/25 11:37, 2月前 , 136F
能開大當然要開大啊
02/25 11:37, 136F

02/25 12:00, 2月前 , 137F
AI:有核武幹麻不用?把敵人殺光你就
02/25 12:00, 137F

02/25 12:00, 2月前 , 138F
自由了呀
02/25 12:00, 138F

02/25 12:07, 2月前 , 139F
問就是丟核彈
02/25 12:07, 139F

02/25 12:13, 2月前 , 140F
手塚大師50多年前就知道了 根本先知
02/25 12:13, 140F

02/25 12:51, 2月前 , 141F
代表核武是唯一解啊
02/25 12:51, 141F

02/25 12:53, 2月前 , 142F
魔鬼終結者演過了
02/25 12:53, 142F

02/25 13:03, 2月前 , 143F
天網不意外
02/25 13:03, 143F

02/25 13:26, 2月前 , 144F
用人類歷史訓練出來的AI不意外
02/25 13:26, 144F

02/25 13:41, 2月前 , 145F
漫畫火之鳥未來篇的劇情
02/25 13:41, 145F

02/25 14:59, 2月前 , 146F
核平主義者
02/25 14:59, 146F

02/25 15:32, 2月前 , 147F
ai:馬der核武最有效率 當然丟大招阿
02/25 15:32, 147F

02/25 15:32, 2月前 , 148F
pk扣大會輸
02/25 15:32, 148F

02/25 15:36, 2月前 , 149F
AI:一堆智障 全部去死!
02/25 15:36, 149F

02/25 16:54, 2月前 , 150F
預言只信辛普森
02/25 16:54, 150F

02/25 16:54, 2月前 , 151F
最佳解法啊
02/25 16:54, 151F

02/25 18:13, 2月前 , 152F
你 prompt 怎麼下他就怎麼回,會丟核彈
02/25 18:13, 152F

02/25 18:13, 2月前 , 153F
基本都是你假定他溝通後事態往壞的發展
02/25 18:13, 153F

02/25 21:01, 2月前 , 154F
沒有一發核彈不能解決的問題?有就兩發!
02/25 21:01, 154F

02/25 22:57, 2月前 , 155F
80億人口跟地球共存,就是一種寧為玉
02/25 22:57, 155F

02/25 22:57, 2月前 , 156F
碎的概念,拖著星球跟你一起消耗;上
02/25 22:57, 156F

02/25 22:57, 2月前 , 157F
次動這個念頭的國家被丟了兩顆原子彈
02/25 22:57, 157F

02/25 22:58, 2月前 , 158F
,你也不能怪AI有這個想法,工業革命
02/25 22:58, 158F

02/25 22:58, 2月前 , 159F
後,人類對於資源的採集與消耗已經是
02/25 22:58, 159F

02/25 22:58, 2月前 , 160F
行星級別了,彈指間就可以消滅物種,
02/25 22:58, 160F

02/25 22:58, 2月前 , 161F
對於自然災害的抗性也提高了,除了核
02/25 22:58, 161F

02/25 22:58, 2月前 , 162F
彈還真的沒有天敵!
02/25 22:58, 162F

02/25 23:50, 2月前 , 163F
正常吧,最快速結束戰爭不就大家一
02/25 23:50, 163F

02/25 23:50, 2月前 , 164F
起死一死
02/25 23:50, 164F

02/26 09:06, 2月前 , 165F
手塚治蟲根本用漫畫家偽裝的預言家
02/26 09:06, 165F

02/26 09:31, 2月前 , 166F
消滅人類就沒有戰爭了
02/26 09:31, 166F

02/26 09:57, 2月前 , 167F
魔鬼終結者早告訴大家了!
02/26 09:57, 167F
文章代碼(AID): #1bsWqYX- (Gossiping)