[閒聊] Vivy AI沒設計安全機制是不是大錯?已回收
譬如機械公敵裡用到的機器人三大法則
一、機器人不能傷害人類
二、不違反原則一,聽從人類命令
三、不違反原則一二,保護自己
在這原則下除了最後爆發人類與AI衝突
中間很多事件應該都能避免
譬如巨浮島那些AI應該能避免攻擊人
又或是像來自新世界的愧死機制
讓攻擊人類致死的AI自己發動停止程序
一定程度能緩和AI的攻擊性
當然AI數量暴增多於人類很多倍還是能滅世
又或是刀劍underworld裡面禁忌目錄
正常人都無法突破限制做出不該的行動
覺得AI這種一板一眼電子存在
怎麼會沒有設計一個基本安全機制呢?
vivy裡面就很單純靠單一使命
所以很多使命都是讓人類怎樣怎樣
用歌聲讓人類幸福
當護理師讓人類生存
彈鋼琴幫助人類
營運巨浮島幫助人類
從第一集就覺得這種靠一句話使命的機制超多漏洞可鑽的
如果vivy開第二季
人類會怎樣設計改良AI安全機制?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.255.110.151 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1626446601.A.BE7.html
→
07/16 22:45,
4年前
, 1F
07/16 22:45, 1F
推
07/16 22:55,
4年前
, 2F
07/16 22:55, 2F
→
07/16 22:55,
4年前
, 3F
07/16 22:55, 3F
→
07/16 22:55,
4年前
, 4F
07/16 22:55, 4F
→
07/16 22:56,
4年前
, 5F
07/16 22:56, 5F
→
07/16 22:57,
4年前
, 6F
07/16 22:57, 6F
→
07/16 22:57,
4年前
, 7F
07/16 22:57, 7F
推
07/16 22:59,
4年前
, 8F
07/16 22:59, 8F
我提的例子每個都有破解方法
怎麼你們大家就特別針對三大法則咧
當然知道三大法則能破
重點是vivy裡面只靠一句使命的機制
比起其他作品實在太不可靠
正常發展都遲早出事根本不用安排黑幕
※ 編輯: sado5566 (111.255.110.151 臺灣), 07/16/2021 23:02:49
推
07/16 23:28,
4年前
, 9F
07/16 23:28, 9F
推
07/16 23:46,
4年前
, 10F
07/16 23:46, 10F
推
07/17 00:29,
4年前
, 11F
07/17 00:29, 11F
→
07/17 00:29,
4年前
, 12F
07/17 00:29, 12F
→
07/17 00:30,
4年前
, 13F
07/17 00:30, 13F
推
07/17 02:11,
4年前
, 14F
07/17 02:11, 14F
→
07/17 02:11,
4年前
, 15F
07/17 02:11, 15F
推
07/17 07:57,
4年前
, 16F
07/17 07:57, 16F
→
07/17 07:58,
4年前
, 17F
07/17 07:58, 17F