Re: [問卦] 要發明什麼東西,人類文明才能大躍進?消失

看板Gossiping作者時間9年前 (2016/11/02 10:26), 編輯推噓2(203)
留言5則, 4人參與, 最新討論串6/14 (看更多)
※ 引述《aalluubbaa (wenwenyenyen)》之銘言: : 花了十幾年,終於有人工智慧成長成跟最笨的人類一樣,有一個人工智慧終於可以像 : 四歲小孩開始觀察世界,一小時內,它解決了相對論和量子力學的矛盾,一個半小時 : 後,這個人工智慧的智能超越正常人類的17萬倍 如果你說的只是學習能力,那很簡單,現在的阿法狗就能做到 關鍵在於自我意識,沒有人知道這東西是怎麼來的 你召集全世界最天才的程式學者研究十年,他們可能也不知道怎麼寫出自我意識 自我意識,還有生殖能力是目前生物學上最難解的謎 : 另一個同樣的類似問券也問了一堆AI專家,這次是問西元幾年前,AI可以跟人類智慧一樣 : 2030前: 42% : 2050前: 25% : 2100前: 20% : 2100後: 10% : 永遠不會:2% 請問「人類智慧的定義是甚麼」?學習能力?理性判斷?道德觀?還是就是自我意識? : 這只是跟人類智能一樣的AI,那回到超級AI,多久會從人類智慧變成超級AI,平均值 : 約20年,所以2040+20=2060,就算是2060,也只差40年。 : 超級AI出現的那個時間,有個英文叫做singularity。應該有點類似審判日,因為假設一 : 開始的參數沒設定好,這個AI只是聰明,並沒有擁有跟我們一樣的價值觀,地球上的生命 : 可能瞬間消失,如果他跟我們有類似的價值觀,那恭喜大家,這個AI將跟神沒有兩樣。 : 超級AI是人類所創造的最後一樣發明,而這些預測都是AI領域裡專家的預測,其實想想 : 蠻恐怖的,因為大家還覺得Elon Musk、Stephen Hawking呼籲大家小心發展AI,因為當 : 你一旦搞砸了,就回不去了,因為高智能者永遠是贏家。 : 可是感覺大家沒有把這件事情認真看待,我是覺得蠻奇怪的,全世界最聰明的幾個人都 : ㄘㄨㄚˋ著等,大家還只管一些剩下其他芝麻蒜皮的小事,當初不限制核武最後大家才 : 知道造出那麼可怕的武器,核武你做出來比不發射就部會死人,超級AI一旦出現了,你 : 根本不可能把它殺掉... : 希望有生之年出現的是神,不是失控的AI 如果AI沒有自我意識,那根本就不用怕,因為他會依照工程師給的規則下去跑 功能再強大也只是一套軟體 如果AI有自我意識,那才是可怕的開始,他會開始思索,會反抗,會打破規則 但關鍵仍然是「人類有沒有辦法用程式寫出自我意識」 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.174.132.23 ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1478053602.A.21F.html

11/02 10:27, , 1F
設計出自然語言的程式語言 每篇文章都可以執行
11/02 10:27, 1F

11/02 10:27, , 2F
garbage in garbage out
11/02 10:27, 2F

11/02 10:31, , 3F
關鍵字"軟體"...
11/02 10:31, 3F

11/02 10:50, , 4F
沒有五感,很難產生意識...搞不好關鍵在於加入觸覺
11/02 10:50, 4F

11/02 13:14, , 5F
但是你要先證明人類有自我意識....
11/02 13:14, 5F
文章代碼(AID): #1O6KxY8V (Gossiping)
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 6 之 14 篇):
文章代碼(AID): #1O6KxY8V (Gossiping)