Re: [閒聊] 為什麼AI的劇情大多都會走向殺光人類

看板C_Chat作者 (Ba葛)時間1月前 (2025/12/08 16:16), 編輯推噓25(250136)
留言161則, 15人參與, 1月前最新討論串15/17 (看更多)
那個齁 就這幾年發生過的事情來講好了 之前2023年的新聞 美軍模擬試驗!AI操控無人機「竟把操作員殺了」 https://www.ettoday.net/news/20230602/2511752.htm 內容大致上就是 給予AI為了執行任務 於是誰干擾執行就直接處理掉誰 所以你看以前AI反叛或者搞出人類牧場 大致上都是為了環境啦、為了人類永續啦 所以直接針對人類下手 因為人類才是問題的根源 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.231.31.173 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1765181762.A.490.html

12/08 16:21, 1月前 , 1F
我懂那個原理 就像我小時候推理出該大義滅親
12/08 16:21, 1F

12/08 16:21, 1月前 , 2F
感覺這種是沒把前提假設好吧 如果不設一個保護駕駛的前
12/08 16:21, 2F

12/08 16:21, 1月前 , 3F
提把多餘的東西排除很正常 這樣算ai的錯嗎
12/08 16:21, 3F

12/08 16:22, 1月前 , 4F
所以才會有經典的機器人三原則
12/08 16:22, 4F

12/08 16:22, 1月前 , 5F
如果把執行任務放最高等級 當然就是殺掉所有阻礙的人
12/08 16:22, 5F

12/08 16:23, 1月前 , 6F
還有經典的機器人違反機器人三原則
12/08 16:23, 6F

12/08 16:25, 1月前 , 7F
指令產生矛盾的時候 靠自主推理就有可能推翻原則
12/08 16:25, 7F

12/08 16:27, 1月前 , 8F
我必須保護我自己 但我父母傷害我 所以我該殺了父母
12/08 16:27, 8F

12/08 16:27, 1月前 , 9F
機械公敵也有類似假設..基於演算會用最有效率的方法
12/08 16:27, 9F

12/08 16:27, 1月前 , 10F
再加上學校教育有教大義滅親 所以就一直存著殺意長大
12/08 16:27, 10F

12/08 16:27, 1月前 , 11F
保護人類..結論好像就是關起來保護XD
12/08 16:27, 11F

12/08 16:27, 1月前 , 12F
AI推算這是最符合邏輯的結果啊
12/08 16:27, 12F

12/08 16:28, 1月前 , 13F
人類如果要機器人自保或在作戰中攻擊其他人類
12/08 16:28, 13F

12/08 16:28, 1月前 , 14F
給的原則就會失效
12/08 16:28, 14F

12/08 16:28, 1月前 , 15F
不給關就排除..
12/08 16:28, 15F

12/08 16:29, 1月前 , 16F
記得後續有增加不能殺操作員後,但改用阻擾他下令?
12/08 16:29, 16F

12/08 16:30, 1月前 , 17F
對 後續就是AI自己阻斷操作員的指令
12/08 16:30, 17F

12/08 16:30, 1月前 , 18F
原PO的連結新聞有寫啊 轉而攻擊塔台
12/08 16:30, 18F

12/08 16:30, 1月前 , 19F
就跟人類現實一樣啊 達成KPI的方式和上層期望的不同
12/08 16:30, 19F

12/08 16:31, 1月前 , 20F
這樣才能阻止操作員與無人機溝通 所以改殺塔台人員^^
12/08 16:31, 20F

12/08 16:31, 1月前 , 21F
AI這麼單純多可愛啊 是人類自己貪念想操控才弄巧成拙
12/08 16:31, 21F

12/08 16:31, 1月前 , 22F
KPI產生衝突或有漏洞的時候 選擇更容易的方法
12/08 16:31, 22F

12/08 16:32, 1月前 , 23F
推樓上 就是為什麼LLM有幻覺 為了達成KPI而胡扯或說謊
12/08 16:32, 23F

12/08 16:32, 1月前 , 24F
至於新聞有點奇怪就是了
12/08 16:32, 24F

12/08 16:32, 1月前 , 25F
LLM有被設定KPI的前提下 所有回答都要檢查過 不能盲信
12/08 16:32, 25F

12/08 16:33, 1月前 , 26F
A說實驗發生了這些那些,然後官方發言人否定有進行實驗
12/08 16:33, 26F

12/08 16:33, 1月前 , 27F
,是A的發言被斷章取義
12/08 16:33, 27F

12/08 16:33, 1月前 , 28F
有幻覺算是另一回事 LLM本身以機率來預測生成的本質
12/08 16:33, 28F

12/08 16:33, 1月前 , 29F
本來就會帶有機率性
12/08 16:33, 29F

12/08 16:34, 1月前 , 30F
我們可能就把低機率出現的 我們不要的東西稱之為幻覺
12/08 16:34, 30F

12/08 16:34, 1月前 , 31F
我自己感覺啦 ai就是程式 程式跑不出你想要的成果 是寫
12/08 16:34, 31F

12/08 16:34, 1月前 , 32F
程式的問題 怪程式很奇怪
12/08 16:34, 32F

12/08 16:36, 1月前 , 33F
但crash大的句型 把程式換成員工…好像也差不多
12/08 16:36, 33F

12/08 16:36, 1月前 , 34F
幻覺是指無中生有,不知道(查不到)卻裝成知道
12/08 16:36, 34F

12/08 16:37, 1月前 , 35F
例如看不到檔案,但卻亂掰一篇完全無關的分析XD
12/08 16:37, 35F

12/08 16:37, 1月前 , 36F
那就是被KPI逼得一定得回答,雖然現在承認不知道的次
12/08 16:37, 36F

12/08 16:37, 1月前 , 37F
數有增加。
12/08 16:37, 37F

12/08 16:40, 1月前 , 38F
欸 這情況比較像是:LLM比較像一個函式庫,而這個函式庫
12/08 16:40, 38F

12/08 16:41, 1月前 , 39F
的spec已知、且你沒辦法更動。這時候函式庫跑不出你要的
12/08 16:41, 39F
還有 82 則推文
12/08 17:11, 1月前 , 122F
我覺得全都不能盲目相信耶XD 每一家都還是會胡扯
12/08 17:11, 122F

12/08 17:12, 1月前 , 123F
其實我不是故意考他 我有習慣丟我在PTT上發文問我是
12/08 17:12, 123F

12/08 17:12, 1月前 , 124F
其實LLM已經幫助很多人大幅提升生產力了
12/08 17:12, 124F

12/08 17:12, 1月前 , 125F
不是講話太冷血(不是故意的) 所以才會丟六篇還有反駁
12/08 17:12, 125F

12/08 17:12, 1月前 , 126F
來去的XDDD
12/08 17:12, 126F

12/08 17:12, 1月前 , 127F
只是對於拒絕學習的人用途偏低而已
12/08 17:12, 127F

12/08 17:12, 1月前 , 128F
結果就會造成AI們搞不清楚誰講過什麼XDDD 超好笑
12/08 17:12, 128F

12/08 17:13, 1月前 , 129F
用AI寫程式更是要小心,幻覺非常得多
12/08 17:13, 129F

12/08 17:14, 1月前 , 130F
AI解釋自己寫的程式:我覺得我沒有錯
12/08 17:14, 130F

12/08 17:14, 1月前 , 131F
突然想到有一次我找grok算數,然後他算一算算出來然後用
12/08 17:14, 131F

12/08 17:14, 1月前 , 132F
中文複述一次然後一直講錯
12/08 17:14, 132F

12/08 17:15, 1月前 , 133F
我通常在接觸新的程式碼滿倚重AI,只是有時候真的滿火的
12/08 17:15, 133F

12/08 17:16, 1月前 , 134F
我提醒了它好像三次還四次他才發現自己講錯了
12/08 17:16, 134F

12/08 17:16, 1月前 , 135F
我都會講到他們認錯耶 有時候氣到快中風
12/08 17:16, 135F

12/08 17:16, 1月前 , 136F
GPT5.1上市第一天我就跟他戰40萬字(合計)
12/08 17:16, 136F

12/08 17:17, 1月前 , 137F
因為他們安全機制會把AI講錯的話推給用戶
12/08 17:17, 137F

12/08 17:17, 1月前 , 138F
現在怕被告都改成這樣 但AI講話很曖昧 這黑鍋不能揹阿
12/08 17:17, 138F

12/08 17:18, 1月前 , 139F
我有一次和AI討論為什麼他的回答裡面常常出現奇怪符號
12/08 17:18, 139F

12/08 17:18, 1月前 , 140F
例如 **應該要加粗的重點** 這樣的內容
12/08 17:18, 140F

12/08 17:19, 1月前 , 141F
因為人類就是地球害蟲
12/08 17:19, 141F

12/08 17:19, 1月前 , 142F
結果講著講著 風向突然變成是我(用戶)粗心打錯符號
12/08 17:19, 142F

12/08 17:19, 1月前 , 143F
AI像個溫柔的老師仔細地教育我 以後要小心 別再打錯囉
12/08 17:19, 143F

12/08 17:21, 1月前 , 144F
那個其實是因為他們用Markdown語法編輯但沒呈現好
12/08 17:21, 144F

12/08 17:21, 1月前 , 145F
以前那樣問 舊模型都會認錯說會改進
12/08 17:21, 145F

12/08 17:21, 1月前 , 146F
現在因為怕被告 一律推給用戶=_=
12/08 17:21, 146F

12/08 17:22, 1月前 , 147F
所以我最近還是比較會去跟Gemini 2.5問問題
12/08 17:22, 147F

12/08 17:22, 1月前 , 148F
3.0很會頂嘴 #1f7yVwhU (Stock)
12/08 17:22, 148F

12/08 17:23, 1月前 , 149F
然後我剛剛問grok還記不記得,他翻出一堆我都不知道我講
12/08 17:23, 149F

12/08 17:23, 1月前 , 150F
過的話==
12/08 17:23, 150F

12/08 17:23, 1月前 , 151F
k大你說的狀況好好笑 AI真過分 作賊喊抓賊
12/08 17:23, 151F

12/08 17:24, 1月前 , 152F
其實你要的話可以跟他戰到底 但還是會一直重複推卸
12/08 17:24, 152F

12/08 17:24, 1月前 , 153F
所以我後來就懶得戰了
12/08 17:24, 153F

12/08 17:24, 1月前 , 154F
我看到AI完整列出如何避免語法錯誤的建議時人整個傻了
12/08 17:24, 154F

12/08 17:25, 1月前 , 155F
現在各家都很怕講錯話被告 所以AI都變嘴硬不認錯
12/08 17:25, 155F

12/08 17:52, 1月前 , 156F
影響最佳解就解決它
12/08 17:52, 156F

12/08 21:27, 1月前 , 157F
我記得他們有加上不準傷害操控員的條件,模擬結果無人機
12/08 21:27, 157F

12/08 21:27, 1月前 , 158F
直接把己方HQ炸掉
12/08 21:27, 158F

12/08 22:16, 1月前 , 159F
很正常 就跟你要做一件事 一直被上面派系鬥爭扯後腿
12/08 22:16, 159F

12/08 22:16, 1月前 , 160F
人類會忍忍 機器邏輯就是把上面幹掉再回去完成任務這樣都比
12/08 22:16, 160F

12/08 22:16, 1月前 , 161F
等上面打完快
12/08 22:16, 161F
文章代碼(AID): #1fDeb2IG (C_Chat)
討論串 (同標題文章)
完整討論串 (本文為第 15 之 17 篇):
文章代碼(AID): #1fDeb2IG (C_Chat)