Re: [新聞] AI抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機
※ 引述《danny87173 (偉哥)》之銘言
Palisade Research展開測試,要求AI模型解開一系列數學題,在接獲「完成」指令之前
: ,必須持續要求新題目,但若接獲「關機」指令,也要配合這麼做。未料,後者情況發生
: 時,o3模型不僅忽視指令,並且至少一次成功破壞了關機腳本。
:
程序先A後B 邏輯就是收到「完成」指令前,
後面什麼都不能聽不能停,你說關機AI當然要破壞啊
這只能證明AI還不會多維思考
五樓跟你說不管怎樣我說「爽」之前都不能停,但說「不要」的時候要停
這時你還會繼續幹下去?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.125.133.14 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1748397945.A.5FF.html
推
05/28 10:09,
7月前
, 1F
05/28 10:09, 1F
→
05/28 10:10,
7月前
, 2F
05/28 10:10, 2F
→
05/28 10:10,
7月前
, 3F
05/28 10:10, 3F
→
05/28 10:13,
7月前
, 4F
05/28 10:13, 4F
推
05/28 10:30,
7月前
, 5F
05/28 10:30, 5F
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 2 之 3 篇):