[心得] AI末日--第二衝擊
https://tinyurl.com/2ys5j6f8
YouTube影片,關於AI末日的講座。
對於我這種不太關心科技發展的人,衝擊性十足,所以簡譯一些重點出來分享。
「有一半以上的AI科學家表示,有大於10%的機率AI會帶來人類滅絕。」
是這場演講的開場白。
你可能覺得這個數據還好嘛、危言聳聽,可是假設我們換個方式說呢:
「有一半以上的飛機工程師表示,你正要搭乘的班機有大於10%的機率會墜機。」
你還敢搭嗎?
接著講者提到,我們人類其實已經接觸過「AI的第一衝擊」而且已經敗陣了。
所謂的第一衝擊指的是社群網站,一種「試圖吸睛的AI(策展AI)」,也就是常
見的「猜你也喜歡…」或是YouTube以及推特的推薦演算法。
社群網站帶來的文化問題我們耳熟能詳,諸如:資訊爆炸、假新聞、用網成癮、厄運
瀏覽(專門看各種壞消息導致身心健康低落)、專注力降低、意見極端化、小型邪教叢生
……等等。
在這些問題都還沒解決之前,AI又要升級成為創造性AI,帶來第二次衝擊。
現在的「AI搶工作」、「AI的政治立場弔詭」都只是表面的問題,重點還是與第
一次衝擊一樣:「AI與生活各層面開始會交纏的太深」。
接著講者先跳到AI演進史,說明2017是AI科技的分水嶺。在那之前,各產業AI
發展是各自獨立的,舉凡語音辨識、相機的圖像辨識、音樂產出、機器人工學……等。不
同的AI有各自不同的進程,互不干涉。每個領域的專家會沒辦法轉移他的專業。
但是自從語言學習AI發展出來之後,所有AI就有辦法大一統了。因為幾乎所有的
知識都能語言化,圖像有圖像語言、聲音有聲紋語言、腦內造影語言(fMRI)、DNA的基
因訊息語言、程式語言……
AI研究開始變得一法通、萬法通,各類AI專家能夠集中他們的智慧到語言AI上
,所以近期才會有各種AI同時問世、能有飛越式進展。
然後講者提供各領域的例子,解釋現行AI有多強,像是翻譯fMRI的大腦圖像。詳細
請看影片。
再來講者舉例可能以及已有的問題,像是只靠錄製三秒鐘小孩講話的聲音就能靠AI製
作假的綁票語音或是請AI找程式漏洞……等等。
此外,AI的進化具有不可預知性。
這裡講的是「一法通萬法通」的延伸。案例是,明明只有餵英文資料給AI學習,結
果餵到一個階段的時候,莫名其妙它的波斯語理解程度卻飆高了。這是AI工程師們沒預
期到的結果。
另一個案例,這個語言AI在學習化學知識上比起舊有的化學專門AI還強,它甚至
能提供製造神經毒氣的方法。而這件事是在GPT問世之後才被發掘的。
AI的戰略性心智程度:
2018 :無
2019 :些微(近乎沒有)
2020 :4歲小孩
2022一 月:7歲小孩
2022十一月:9歲小孩
但是令人發毛並不是它的成長速度,而是AI研究者是到2023年2月才發現AI能進行
戰略性思考這件事。
同時AI也已經發展出像AlphaGo一樣的自主學習力,能自行篩選餵自己什麼資料能提
升自己去通過更高程度的心智檢測。(此能力還在元初階段,還沒我們想像中的可怕。)
現存最專業的AI工程師在2021年預測AI應該會在4年後達到能解答五成以上的競
賽級數學問題的程度。但是實際上只花了1年。而且預計在今年能上看達到全解程度。
結語的部分,講者呼籲所有西方研究者應該共同放慢發展腳步,別怕會被中國超越(
影片內有講為什麼,懶得打了),講我們正在歷史的分水嶺之上,應該謹慎行動。
個人心得:
難怪馬斯克會發出暫停AI研發的呼籲,我聽完也覺得這真的不是危言聳聽。
講者也提到:「你可能聽完這場演講之後會覺得跟現實脫離,明明網路上大家跟AI
聊天很好笑啊、看AI色圖很爽啊,哪來什麼危險?其實我們在規劃這個講座的時候也一
直有這種感覺,但是我們也沒辦法客觀的指出一個特定危險的點,就像過去人類沒辦法點
出社群網站的害處一樣。」
再補充一個影片段落,「AI發展」和「AI安全防治」的研究人數比是30:1。
還有一句他們用的比喻:「核彈對於現實世界的危害就相當於AI對於資訊社會的危害
,但是核彈不會自己變強。」
--
「要愛具體的人,不要愛抽象的人;要愛生活,不要愛生活的意義。」
——《卡拉馬佐夫兄弟》陀思妥也夫斯基
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.70.61.123 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1682221143.A.54D.html
→
04/23 11:42,
1年前
, 1F
04/23 11:42, 1F
→
04/23 11:45,
1年前
, 2F
04/23 11:45, 2F
推
04/23 11:59,
1年前
, 3F
04/23 11:59, 3F
討論串 (同標題文章)