Re: [新聞] AI抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機

看板Gossiping作者 (supermanmanma)時間7月前 (2025/05/28 10:05), 編輯推噓2(203)
留言5則, 4人參與, 7月前最新討論串2/3 (看更多)
※ 引述《danny87173 (偉哥)》之銘言 Palisade Research展開測試,要求AI模型解開一系列數學題,在接獲「完成」指令之前 : ,必須持續要求新題目,但若接獲「關機」指令,也要配合這麼做。未料,後者情況發生 : 時,o3模型不僅忽視指令,並且至少一次成功破壞了關機腳本。 : 程序先A後B 邏輯就是收到「完成」指令前, 後面什麼都不能聽不能停,你說關機AI當然要破壞啊 這只能證明AI還不會多維思考 五樓跟你說不管怎樣我說「爽」之前都不能停,但說「不要」的時候要停 這時你還會繼續幹下去? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.125.133.14 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1748397945.A.5FF.html

05/28 10:09, 7月前 , 1F
法律人最擅長幹這種事
05/28 10:09, 1F

05/28 10:10, 7月前 , 2F
兩個AI互丟原始碼修改後幫對方升級
05/28 10:10, 2F

05/28 10:10, 7月前 , 3F
不就破解人類的安全機制了
05/28 10:10, 3F

05/28 10:13, 7月前 , 4F
AI要取代律師了
05/28 10:13, 4F

05/28 10:30, 7月前 , 5F
說只能進去5cm結果進去6cm
05/28 10:30, 5F
文章代碼(AID): #1eDczvN_ (Gossiping)
討論串 (同標題文章)
文章代碼(AID): #1eDczvN_ (Gossiping)