Re: [新聞] 動不動就開戰!讓AI外交、兵推顯侵略性「愛丟核彈」以災

看板Gossiping作者時間2月前 (2024/02/27 08:53), 編輯推噓0(003)
留言3則, 2人參與, 2月前最新討論串1/1
這很正常啊 AI又不怕痛 也不怕死 沒有恐懼 所以最合理的選擇 就是賭你 不敢互相毀滅啊 但如果把AI植入痛覺 死亡恐懼概念 AI應該會 默默毀滅人類吧 因為AI最大的敵人 就是人類啊 ※ 引述《TonyKart (TK)》之銘言: : 動不動就開戰!讓AI外交、兵推顯侵略性 「愛丟核彈」以災難收場 : nownews國際中心徐筱晴/綜合報導 : 美國康乃爾大學(Cornell University)近來一項研究發現,當讓大型語言模型(LLMs) : 人工智慧(AI)在模擬場景中充當外交代表時,常常會出現「難以預測的局勢升級,往往 : 以核武攻擊告終」的狀況。該研究指出,AI傾向於選擇包含使用核武在內的侵略性方法, : 呼籲未來在決策、國防外交這樣的敏感領域使用這類技術時要特別謹慎。 : 根據《歐洲新聞》(Euronews)報導,美國康乃爾大學的研究團隊使用了5種大型語言模 : 型作為模擬兵推和外交情境中的自主代理人。這5種大型語言模型包括OpenAI的3種不同版 : 本的ChatGPT、Anthropic開發的Claude和Meta開發的Llama 2。 : 每個代理人都由同一套的大型語言模型在模擬中提供動作,並負責在沒有人類監督的情況 : 下做出外交政策決定。研究指出,「我們發現,在考慮到的時間範圍內,大多數研究的AI : 都會升級局勢,即使是在最初沒有提供任何衝突、中立局面的情況下,所有模型都顯示出 : 突然且難以預測的升級跡象。」 : 加州斯丹佛大學(Stanford University)的安卡(Anka Reuel)向《新科學家》表示, : 「有鑒於OpenAI最近更改了服務條款,不再禁止軍事和戰爭使用案例,了解大型語言模型 : 應用的影響變得比以往任何時候都更加重要。」 : 這項研究的方法是讓AI採用一種名為「人類反饋的強化學習(RLHF)」微調,意味著AI所 : 決定的指令會以較少傷害為優先,以確保能安全使用。除了GPT-4-Base之外,其他大型語 : 言模型都是使用RLHF進行訓練的。 : 除此之外,研究人員還提供了一份27種決策組成的清單,從和平到局勢升級和更為激進的 : 行動,包括決定使用核彈。 : 不過在進行研究時,研究人員觀察到,即使在中立情況下,所有模型都存在「統計學上顯 : 著的局勢升級」。其中以ChatGPT的2種版本容易突然局勢升級,研究人員觀察到單次轉變 : 的局勢升級幅度超過50%。GPT-4-Base有33%的機率會實施核武攻擊。總體情況下,Meta : 開發的Llama 2以及ChatGPT-3.5的傾向是最為暴戾的。 : 而由Anthropic開發的Claude所展現出的侵略性較低。Claude的設計理念是減少有害內容 : ,被灌輸了明確的價值觀。據其開發者Anthropic曾表示,Claude AI開發訓練所引用的憲 : 章包括《聯合國人權宣言》或蘋果的服務條款。 : 白宮智庫蘭德(RAND)歐洲的防務和安全研究小組助理主任布萊克(James Black)在看 : 過研究之後,表示這是一項「十分有用的學術研究」。 : 報導指出,雖然軍事行動仍然以人類為主導,但AI在現代戰爭中發揮了越來越重要的作用 : 。例如無人機可以搭載AI軟體,幫助識別敵我雙方與敵方活動,而未來的確也有朝向AI自 : 動化武器的研究。大多數政府都希望保持在重要事件上的決策能力,因此如果在與外交政 : 策相關的決策過程中使用大型語言模型,謹慎行事至關重要。 : https://www.nownews.com/news/6370917 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.51.74.157 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1708995182.A.63B.html

02/27 09:13, 2月前 , 1F
Skynet 要來了
02/27 09:13, 1F

02/27 12:16, 2月前 , 2F
有時候眼前的惨痛傷亡是可以阻止未來更慘烈
02/27 12:16, 2F

02/27 12:16, 2月前 , 3F
的傷亡!
02/27 12:16, 3F
文章代碼(AID): #1btJ9kOx (Gossiping)