Re: [新聞] 特斯拉創辦人警告:人工智慧將威脅人類工
這個假設我只能說,有一個科學家叫艾西莫夫(Isaac Asimov)
他在1940年代寫了許多篇超級人工智慧與類人型機器人的科幻故事。
他替未來的人工智慧寫了三條原則以避免人工智慧造反。
1.機器人(AI)不得傷害人類,也不可坐視人類受到傷害。
2.在不違背原則1的情況下,機器人(AI)必須服從人類的命令。
3.在不違背原則1與2的狀態下,機器人必須保護自己的存在。
有這麼嚴格的法則限制,結果在小說的真正的第九章結局(大陸網站
上沒有這章,被和諧了。其實這章在發表的1950年剛好遇到麥卡錫主
義白色恐怖,也替作者帶來不少麻煩。中文版只有以前民國70年代初期
照明出版社版本和現在葉李華翻譯的重編版有收錄這章),AI還是在
三原則控制下,但是AI們卻掌控了地球真正的權力。
目前的AI呢?連第一原則的前半句不得傷害人類這條都沒有。
美軍研發的AI好像也不想加入這一條。
連機器戰警那個修改版的「機器人不得傷害美國公民,除非他犯罪」這條也沒有。
唉呀呀~~~某天大家遇到一位叫莎拉康娜的女孩子一定要保護好他呀。
--
戰爭結束後我就要回鄉下結婚了。
看,這是我女朋友的相片,她已經懷孕了。
回國後我打算做捕蝦的生意,說不定商○週刊會來採訪。
咦?有人按鈴說要來查水表,我去開個門。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.237.152.2
※ 文章網址: https://www.ptt.cc/bbs/DummyHistory/M.1501500402.A.AE4.html
→
07/31 19:50, , 1F
07/31 19:50, 1F
→
07/31 19:51, , 2F
07/31 19:51, 2F
→
07/31 19:51, , 3F
07/31 19:51, 3F
FaceBook可是實驗過兩個聊天AI互相聊天,聊到最後FaceBook不敢實驗下去。
因為這兩個AI開始創造自己看得懂人類完全不懂的新語言了。
※ 編輯: yusaku (36.237.152.2), 07/31/2017 20:43:15
→
07/31 22:59, , 4F
07/31 22:59, 4F
→
07/31 23:00, , 5F
07/31 23:00, 5F
→
07/31 23:01, , 6F
07/31 23:01, 6F
→
08/01 00:35, , 7F
08/01 00:35, 7F
→
08/01 00:52, , 8F
08/01 00:52, 8F
→
08/01 00:52, , 9F
08/01 00:52, 9F
→
08/01 00:52, , 10F
08/01 00:52, 10F
→
08/01 11:38, , 11F
08/01 11:38, 11F
→
08/01 11:38, , 12F
08/01 11:38, 12F
→
08/01 23:48, , 13F
08/01 23:48, 13F
推
08/02 12:05, , 14F
08/02 12:05, 14F
推
08/02 12:29, , 15F
08/02 12:29, 15F
→
08/02 17:18, , 16F
08/02 17:18, 16F
→
08/02 17:19, , 17F
08/02 17:19, 17F
→
08/02 23:15, , 18F
08/02 23:15, 18F
→
08/02 23:15, , 19F
08/02 23:15, 19F
→
08/02 23:16, , 20F
08/02 23:16, 20F
→
08/02 23:17, , 21F
08/02 23:17, 21F
→
08/02 23:18, , 22F
08/02 23:18, 22F
→
08/02 23:21, , 23F
08/02 23:21, 23F
→
08/03 11:15, , 24F
08/03 11:15, 24F
討論串 (同標題文章)