Re: [心得] 三體 有雷

看板SF作者 (冷雨)時間15年前 (2011/02/12 12:15), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串2/6 (看更多)
: 推 fw190a:好奇,可以請樓上說明一下感到不合理的原因嗎? 講幾個例子... 1.這些名詞(人類、傷害)的定義是人訂的,還是機器人推算出來的? 在基地某篇裡面,有人把機器人的「人類」定義成只限自己星球上的人,所以這些定義應 該是人為的。 但是這又不符合可避免的衝突、騙子裡面機器人能自行推算出超出設計者想像的想法。 而且機器人把心理上的傷害也當作傷害,但連人類自己都沒辦法確切瞭解自己心理上有沒 有被傷害,又如何能對機器人作定義? 2.機器人的運算能力是否有硬體上的極限? 如果沒有,那所有機器人的第一法則,應該都會變成第零法則,因為他們每作一個動作, 都可以預期(無限遠的)的蝴蝶效應對人類的傷害。 如果有,那曙光中的吉斯卡為甚麼可以只靠調整程式,就得到遠遠超過丹尼爾的能力? 3.三原則安全嗎? 從消失無蹤裡面看來,機器人的第一法則也是可以被人為修改的。 而從基地看來,機器人對人類的定義也是可修改的。 那這些機器人學家以及機器人製造公司,應該比世界上任何一間軍火商或恐怖份子更危險 ,因為這些機器人隨時可以變成強大的武力(只要改動前述兩項之一)。 但是裡面的政府卻無所管制,只把機器人學當成普通的學術活動看待,這也太不符合我們 對政府(美國?)的印象了。 我知道這是因為艾氏的作品很多,如果只看三原則本身,也許不能說「不合理」。 但是這三原則其實並沒有解決任何事情,因為實作上有很多必然的矛盾,事實上艾氏 的機器人系列就是在描寫這些矛盾。 簡單來講,機器人三原則和以下的三原則其實差異不大: 1.要做人們心目中的好機器人。 2.要做人們心目中的好機器人。 3.無論如何,都要做人們心目中的好機器人。 只要交給機器人超強的推理和判斷能力,判斷出什麼是好機器人就行了。 但是就科幻小說來看,我並不覺得這些算是什麼問題。 正如某個版本的導讀所講,科幻小說本來就是幻想重於科學,否則就不是小說了。 ※ 編輯: raincole 來自: 113.61.193.250 (02/12 12:20)
文章代碼(AID): #1DLWby01 (SF)
討論串 (同標題文章)
本文引述了以下文章的的內容:
以下文章回應了本文 (最舊先):
完整討論串 (本文為第 2 之 6 篇):
文章代碼(AID): #1DLWby01 (SF)