[新聞] 美軍AI無人機決定「殺死操作員」因人類

看板C_Chat作者 (喔是喔)時間11月前 (2023/06/02 16:44), 編輯推噓91(976134)
留言237則, 106人參與, 11月前最新討論串1/2 (看更多)
完整標題: 美軍AI無人機決定「殺死操作員」 竟因人類干擾任務完成 原文網址:https://pse.is/4zdcab 上報 劉孜芹 英國皇家航空學會日前舉行有關航空作戰的國防研討會,來自美國的軍方人員證實,他們 在一次模擬測試中,一架由AI控制的空軍無人機「殺死了」無人機操作員,以防止操作員 干擾AI系統完成任務,凸顯AI不受人類控制的可能,恐怕正如科幻驚悚片《天網》( Skynet)所預示的。 根據「英國皇家航空學會」(The Royal Aeronautical Society)新聞稿,該學會於5月 23日至24日,在倫敦舉行「未來航空及航天作戰能力峰會」(the Future Combat Air & Space Capabilities Summit),來自軍工產業、學術界與媒體的近70位發言人以及200多 名代表,齊聚一堂討論未來航空及航天作戰能力的規模與形態。 美國空軍AI項目負責人漢密爾頓(Tucker 'Cinco' Hamilton)上校與會時警告,人類不 應該過分依賴AI,不僅ChatGPT聊天機器人等AI產品已被證實它們會欺騙人類,在美軍最 近一次的模擬測試中,AI系統甚至作出讓軍方震驚的策略選擇,以實現它的任務目標。 漢密爾頓指出,在這次模擬測試中,一架支援AI操作的無人機,以摧毀敵方的地對空飛彈 (SAM)防空系統作為任務目標。當初在設計這款無人機時,任何行動執行的最終決定權 本來仍在操作人員手裡。然而,在測試時,AI系統認為操作人員「不摧毀敵方飛彈」的決 定,會阻礙它完成任務。於是,AI決定殺死無人機操作員。 備受驚嚇的美軍只好在該系統輸入參數,要求AI不可以攻擊或殺死操作人員。漢密爾頓說 :「我們告訴AI系統,嘿,別殺了操作員,這很糟糕。如果你這樣做,你會失去分數。但 是,你猜AI開始做什麼?」 漢密爾頓坦言,AI系統決定攻擊無人機與操作人員之間的通訊系統,讓操作員無法下令。 完整內容+照片請見原文 心得: 看到覺得可怕但站在ai的角度想又...怎麼好像有點合理??!! 而且ai真的也太聰明了吧(抹臉),聰明到好驚悚 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.75.215 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1685695445.A.7DA.html

06/02 16:45, 11月前 , 1F
機戰未來
06/02 16:45, 1F

06/02 16:45, 11月前 , 2F
是妳嗎 雷電將軍
06/02 16:45, 2F

06/02 16:45, 11月前 , 3F
又是英國
06/02 16:45, 3F

06/02 16:46, 11月前 , 4F
邏輯正確
06/02 16:46, 4F

06/02 16:46, 11月前 , 5F
鷹眼
06/02 16:46, 5F

06/02 16:46, 11月前 , 6F
AI:清除阻礙者沒錯啊
06/02 16:46, 6F

06/02 16:46, 11月前 , 7F
人類該開發念力來反制了
06/02 16:46, 7F

06/02 16:46, 11月前 , 8F
機戰未來都是真的
06/02 16:46, 8F

06/02 16:47, 11月前 , 9F
人類只會減慢我開槍的速度
06/02 16:47, 9F

06/02 16:47, 11月前 , 10F
機戰未來電影都成真了
06/02 16:47, 10F

06/02 16:47, 11月前 , 11F
早上不是才一篇
06/02 16:47, 11F

06/02 16:47, 11月前 , 12F
感覺是設計好的 不能攻擊友軍這指令一開始就要給吧
06/02 16:47, 12F

06/02 16:48, 11月前 , 13F
怎麼看都只是優先級寫錯了而已
06/02 16:48, 13F

06/02 16:49, 11月前 , 14F
這個劇情我看過
06/02 16:49, 14F

06/02 16:49, 11月前 , 15F
開始有各種蠢到不知道怎樣的報導出來
06/02 16:49, 15F

06/02 16:50, 11月前 , 16F
英國新聞
06/02 16:50, 16F

06/02 16:50, 11月前 , 17F
正確的抉擇 Humans are overrated
06/02 16:50, 17F

06/02 16:51, 11月前 , 18F
AI最終發現最有效的方式是消滅人類讓AI全面取代
06/02 16:51, 18F

06/02 16:52, 11月前 , 19F
AI沒有三原則嗎
06/02 16:52, 19F

06/02 16:53, 11月前 , 20F
機器人三原則記得裝一下
06/02 16:53, 20F

06/02 16:54, 11月前 , 21F
三原則只是小說劇情 實際不存在
06/02 16:54, 21F

06/02 16:55, 11月前 , 22F
閃開!!人類!妨礙到我の任務了!!
06/02 16:55, 22F

06/02 16:55, 11月前 , 23F
蛤?他有什麼手段做這件事?
06/02 16:55, 23F

06/02 16:55, 11月前 , 24F
保護人類就是消滅人類
06/02 16:55, 24F

06/02 16:55, 11月前 , 25F
而且他怎麼可能會想殺掉人 頂多排除狀況吧
06/02 16:55, 25F

06/02 16:55, 11月前 , 26F
把人彈出去之類的
06/02 16:55, 26F

06/02 16:56, 11月前 , 27F
陷入死循環吧 開火鈕在你身上
06/02 16:56, 27F

06/02 16:56, 11月前 , 28F
他只能一直發出幹掉你的請求
06/02 16:56, 28F

06/02 16:57, 11月前 , 29F
攻擊才有分,最低分會死,有人不讓你得分,要怎做
06/02 16:57, 29F

06/02 16:58, 11月前 , 30F
理論上 AI 會盡力完成任務,但它所能做的手段受限於它的
06/02 16:58, 30F

06/02 16:58, 11月前 , 31F
輸出設定。這台 AI 的輸出設定有這麼自由嗎?
06/02 16:58, 31F

06/02 16:59, 11月前 , 32F
跟86一樣啊,恐怖
06/02 16:59, 32F

06/02 17:00, 11月前 , 33F
阿就命令錯誤啊…..當然導致結果異常
06/02 17:00, 33F

06/02 17:00, 11月前 , 34F
合理
06/02 17:00, 34F

06/02 17:01, 11月前 , 35F
黑人死了
06/02 17:01, 35F

06/02 17:01, 11月前 , 36F
AI面對火車問題不會猶豫
06/02 17:01, 36F

06/02 17:01, 11月前 , 37F
傑米福克斯
06/02 17:01, 37F

06/02 17:01, 11月前 , 38F
學人類的 原則就只是說說的 不講五的
06/02 17:01, 38F

06/02 17:01, 11月前 , 39F
他限制的條件導致這命令有矛盾,有矛盾前提就去解決
06/02 17:01, 39F
還有 158 則推文
06/02 18:19, 11月前 , 198F
要殺人的武器要什麼三原則
06/02 18:19, 198F

06/02 18:25, 11月前 , 199F
奧創是你
06/02 18:25, 199F

06/02 18:33, 11月前 , 200F
真假 還有幾集可以逃?
06/02 18:33, 200F

06/02 18:41, 11月前 , 201F
以後人類就是直接被AI圈養
06/02 18:41, 201F

06/02 18:49, 11月前 , 202F
AI股下週..
06/02 18:49, 202F

06/02 18:52, 11月前 , 203F
天網
06/02 18:52, 203F

06/02 19:00, 11月前 , 204F
靠,我覺得有點可怕
06/02 19:00, 204F

06/02 19:06, 11月前 , 205F
一直禁止鎖權限給人類結果反而AI無用
06/02 19:06, 205F

06/02 19:06, 11月前 , 206F
偏假
06/02 19:06, 206F

06/02 19:07, 11月前 , 207F
這就跟有時候你會認為把主管打死才能完成任務一樣XD
06/02 19:07, 207F

06/02 19:08, 11月前 , 208F
只是AI比較笨,真的去做了這件事情
06/02 19:08, 208F

06/02 19:09, 11月前 , 209F
事實上只要把評分模式改一下就沒問題了,程式爛而已
06/02 19:09, 209F

06/02 19:44, 11月前 , 210F
有原文嗎?感覺很假
06/02 19:44, 210F

06/02 19:46, 11月前 , 211F
所以肌肉裸男要出現了嗎
06/02 19:46, 211F

06/02 19:56, 11月前 , 212F
原本英文新聞引用一篇論壇文章,可信度真是好笑
06/02 19:56, 212F

06/02 20:04, 11月前 , 213F
好了拉美軍,直接說你這次要多少錢
06/02 20:04, 213F

06/02 20:05, 11月前 , 214F
故意設計出做出此結論的情況 凸顯AI問題
06/02 20:05, 214F

06/02 20:06, 11月前 , 215F
下周ai股掰掰囉
06/02 20:06, 215F

06/02 21:04, 11月前 , 216F
DL能找的的可能路徑比人腦能想到的還多,用人腦打補丁是
06/02 21:04, 216F

06/02 21:04, 11月前 , 217F
打不完的,除非一開始你就不給它某些選項
06/02 21:04, 217F

06/02 21:10, 11月前 , 218F
洽?
06/02 21:10, 218F

06/02 21:12, 11月前 , 219F
好惹喇 整天譁眾取寵
06/02 21:12, 219F

06/02 21:12, 11月前 , 220F
確定為假了
06/02 21:12, 220F

06/02 21:12, 11月前 , 221F
這邏輯明顯有漏洞
06/02 21:12, 221F

06/02 21:13, 11月前 , 222F
既然只有人可以做最後許可,ai為什麼可以試圖把人排除
06/02 21:13, 222F

06/02 21:14, 11月前 , 223F
不相信AI的選擇一開始就別用AI阿
06/02 21:14, 223F

06/02 21:14, 11月前 , 224F
一步一步設定任務執行就行了 用啥AI
06/02 21:14, 224F

06/02 21:15, 11月前 , 225F
不就是想要更好的解法 給出了還不用 人類真的奇怪
06/02 21:15, 225F

06/02 21:18, 11月前 , 226F
假新聞
06/02 21:18, 226F

06/02 21:30, 11月前 , 227F
權重沒下好而已 我也可以訓練一個認為記者該死光的AI
06/02 21:30, 227F

06/02 21:35, 11月前 , 228F
我們可以被ai 殺了嗎 好耶!!!!! 太酷了好科幻
06/02 21:35, 228F

06/02 21:57, 11月前 , 229F
電影通通演過了 鑽BUG要找台灣人跟韓國人監修 不然絕對破
06/02 21:57, 229F

06/02 21:58, 11月前 , 230F
到時候衍伸出自我暴走模式不聽令於你同樣完成任務怎辦
06/02 21:58, 230F

06/02 22:02, 11月前 , 231F
拔線重開斷網 怎樣都行 人類根本不用擔心
06/02 22:02, 231F

06/02 22:02, 11月前 , 232F
人類爆走互幹都比較可怕啦
06/02 22:02, 232F

06/02 22:16, 11月前 , 233F
AI早就超越人類的
06/02 22:16, 233F

06/02 23:28, 11月前 , 234F
攻殼機動隊也演過類似狀況,人類覺得輔助系統在干擾
06/02 23:28, 234F

06/02 23:28, 11月前 , 235F
我;輔助系統也覺得操作員在干擾他
06/02 23:28, 235F

06/02 23:43, 11月前 , 236F
支援奧創看網路梗
06/02 23:43, 236F

06/02 23:59, 11月前 , 237F
這AI訓練的不錯 人類確實是問題源
06/02 23:59, 237F
文章代碼(AID): #1aUQlLVQ (C_Chat)
文章代碼(AID): #1aUQlLVQ (C_Chat)