Re: [閒聊] 現實世界有哪些原理不明的科技

看板C_Chat作者 (N5)時間3年前 (2020/12/10 16:18), 3年前編輯推噓10(15526)
留言46則, 17人參與, 3年前最新討論串7/19 (看更多)
※ 引述《praiseZun (praiseZun)》之銘言: : 現在的AI就是啊 : 深度學習爆紅是十年前就開始了 我想用簡單的說法講一下現在的AI到底是怎麼運作的 不過我對AI的理解就只有看看科技文章 下載tensorflow跑過範例而已 所以可能有很多錯誤的地方還請跟我說 在AI領域最小的單位就是神經元 你可以看作是一個作業員 作業員的工作就是一筆資料進來以後做一個轉換再丟出去 例如作業員的工作是把資料"÷2" 那你給他8他就會丟出4 非常簡單 然後你把很多作業員集合起來就會變成一個產線 然後一堆產線就集合成一間工廠 一堆工廠就集合成一間超級工廠 一堆超級工廠就集合成"超超級"工廠 不斷集合之後的"超超.....級工廠"就是我們的AI 這種不斷疊工廠的理論幾十年前就有了 只是最近硬體技術進步 能夠做更大量的運算 所以工廠可以疊更多層 往上疊之後出來的AI效果居然就還不錯 而你就是這堆"超....級工廠" AI的老闆 然後訓練AI的過程就是調整作業員的工作 例如把作業員工作調整成"÷2.5" 但是這部分是自動進行的 不是人工調整的 老闆唯一的工作就是把資料丟進去 AI吐出來之後你回答對或不對 例如你丟一張狗的圖片 AI就跟你說這是貓 你就說搞錯了 這是狗 AI就會自動調整裡面作業員的工作 然後繼續下一個測試 經過不斷調整之後如果工廠合格了 那我們不管丟什麼照片他大部分都能猜出是什麼動物 但是你完全搞不懂AI判斷的依據或是原理 就算你把資料拆開來看裡面的作業員怎麼操作的也沒用 因為他們不是用流水線的方式去處理資料 而是用一種叫做卷積(convolutional)的方式 大概就像這樣 https://imgur.com/Ivvy2YQ
所以整個AI就像一個黑盒子 你知道輸入跟輸出長怎樣 但是中間完全看不到 反正可以用就好 這就是現在AI的現況 但是中間看不到會有什麼問題? 如果有一天你買了AI駕駛的車 但是車子出問題或路況出問題 你只能選擇直行會撞到一棵大樹 或是選擇右轉撞到五個無辜的路人 如果選擇撞無辜的路人你很大的機率存活 但是五個路人很大的機率受重傷 而撞樹的話你很大的機率會死去 這時候你覺得AI該怎麼選擇? 當你站在法庭上時你覺得當初AI選擇撞路人 事由你該負責任? 還是車廠該負責任? 還是訓練AI的工程師要負責任? 如果AI選擇撞樹 這種車你敢買嗎? 如果撞到路人的情況AI判斷不是很大的機率受重傷 而是很大的機率死亡 或是很大的機率輕傷 你覺得什麼情況下AI該換不同的判斷? 你不知道 你看不到 沒人看的到 你只能把模擬資料輸入進去看結果 但是實際情況會不會不同? 這是一個很極端的例子 但是有爭議的地方往往就是在有兩難抉擇的地方 然後真實情況往往無可避免的就是會發生有許多爭議的情況 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.243.108.52 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1607588316.A.400.html

12/10 16:20, 3年前 , 1F
AI判斷的依據大家都懂啊 就是最後算出來那個值
12/10 16:20, 1F

12/10 16:21, 3年前 , 2F
AI會照路權走吧
12/10 16:21, 2F
這好像是之前歐洲那邊的AI倫理相關的爭議問題 是我舉例錯了嗎

12/10 16:21, 3年前 , 3F
不知道為何會得出那個值就沒辦法修正了 AI最大問題的確
12/10 16:21, 3F

12/10 16:21, 3年前 , 4F
是修正成特定目標
12/10 16:21, 4F

12/10 16:22, 3年前 , 5F
理論上要有一個手動輸入極高權值的結果要它優先選 這就
12/10 16:22, 5F

12/10 16:22, 3年前 , 6F
不算是AI而是部分AI了
12/10 16:22, 6F

12/10 16:23, 3年前 , 7F
求解不知道的東西也就算了 自動駕駛的AI大概都需要寫些
12/10 16:23, 7F

12/10 16:23, 3年前 , 8F
規則出來遵守
12/10 16:23, 8F

12/10 16:24, 3年前 , 9F
比較不極端的例子也有,例如你要AI找出有人的照片,結果
12/10 16:24, 9F

12/10 16:24, 3年前 , 10F
找出一堆白人。然後黑人就抗議了
12/10 16:24, 10F
很大一部分的時候是老闆自己丟訓練資料或設定答案的時候就有老闆本身潛意識的偏見 然後AI完美重現而已xD 但是AI的黑盒子讓這些爭議變得很難處裡 到底是AI有問題 還是測試資料有問題 還是哪邊有問題?

12/10 16:27, 3年前 , 11F
都沒有問題啊
12/10 16:27, 11F

12/10 16:27, 3年前 , 12F
不如說,相信DeepNetwork結果一定不會錯才是有問題的
12/10 16:27, 12F
所以台灣的法規好像規定手不能離開方向盤 因為要讓最後的決定依據是駕駛人的樣子 國外不知道有沒有允許開車睡覺的法規

12/10 16:28, 3年前 , 13F
我的理解也是AI就是黑盒子 資料丟的不一樣 模型就不一樣
12/10 16:28, 13F

12/10 16:28, 3年前 , 14F
想改不知道從何改起 只能換資料丟丟看 換些變數重算看看
12/10 16:28, 14F

12/10 16:29, 3年前 , 15F
想改不知道從何改起 <--- 一堆人在亂改不是嗎XD
12/10 16:29, 15F

12/10 16:29, 3年前 , 16F
還有一堆根本就在挑case進行cross validation
12/10 16:29, 16F
亂改很簡單 但是不知道AI跟我的目標偏差在哪 怎麼把偏差修正吧 還是是因為我們AI菜雞所以不知道怎麼改xD

12/10 16:31, 3年前 , 17F
現在的情況是...有滿多人改的新東西,在不同場合的效益
12/10 16:31, 17F

12/10 16:32, 3年前 , 18F
不一樣
12/10 16:32, 18F
我看過很多論文都是改了一些參數之後就說 在某某特定的情況下 如果發生特定事件的話 這個AI就有特別高的效益唷>.^ 我不知道這算是突破還是怎樣......因為我也不太懂AI

12/10 16:32, 3年前 , 19F
而且驗證那些 DNN 的 backbone 好壞的方式其實也是用測資
12/10 16:32, 19F

12/10 16:32, 3年前 , 20F
去實驗。目前並沒有透過數學去證明的方式
12/10 16:32, 20F

12/10 16:42, 3年前 , 21F
所以AI下棋是告訴AI輸棋是錯的 贏棋是對的 然後練蠱?
12/10 16:42, 21F
競技類不知道適不適用我說的工廠型AI AI還有很多種不同的類型 競技類的是給他規則讓他動態的計算比分 例如圍棋的勝利規則就是地圍得多就贏 那AI就有目前的盤勢我能拿幾分 對面拿幾分 一樣這個分數是AI訓練後自己算出來的 不是我們給的 然後挑能拿最高分的點下棋 阿發狗好像是根據歷史棋局+跟自己下棋去訓練的 後面好像還出現更猛的 阿發狗 · 零 是連歷史棋局都不給 直接設定好規則開始自我訓練 然後屌虐阿發狗 但是下的棋與人類差異更大 球類的話就是球的位置權重是幾分 例如電子桌球AI訓練後 判斷打到對面角落就能拿到0.75分 輕輕往對面正中間打的話可能是0.-6分 但是AI怎麼判斷打對面角落能拿0.75分我們不知道 我們唯一要做的事情就是跟AI說你的球掉到你的地板=-1分 掉到對面地板=1分 然後請你動態根據球的位置判斷你的分數大概會是幾分 圍棋就是設定你圍的地-他圍的地就是他的得分 你也可以不用球的位置 而用敵人站的位置判斷分數 然後去訓練一個模型 只是這樣就很難訓練出一個好的AI 所以AI好壞就在於你有沒有讓AI有夠清楚夠正確的規則

12/10 16:49, 3年前 , 22F
電車難題
12/10 16:49, 22F
電車難題就是把複雜的外部因素拔掉之後的哲學命題 現實生活真的到處都會遇到哲學命題會出現的難題

12/10 17:00, 3年前 , 23F
以目前的科技來說,試圖去理解跟整理中間的運作會是徒勞
12/10 17:00, 23F

12/10 17:00, 3年前 , 24F
的嗎?因為目前看來對AI的修正應該都是聚焦在如何讓產出
12/10 17:00, 24F

12/10 17:00, 3年前 , 25F
沒有問題,如果有問題那就測到沒有問題為止。但真正的癥
12/10 17:00, 25F

12/10 17:00, 3年前 , 26F
結點好像是中間的過程?
12/10 17:00, 26F
一個理論從要證明正確->可用->商用要走很多路 AI也一樣 在這個過程當中就有許多人不斷想探究中間的過程到底是怎麼一回事 但是就算到了已經大量商用 甚至有許多免費AI服務的現在 還是沒有很好的結論 當然打開黑盒子的研究也還是一直在進行吧 越複雜的AI越難保證沒有問題 只能保證"大部分情況"沒有問題 然後出問題的時候有人工解決方案

12/10 17:01, 3年前 , 27F
練蠱沒錯阿 蒙地卡羅就是靠賽 這就是alpha go早期的方法
12/10 17:01, 27F

12/10 17:01, 3年前 , 28F
後面的zero我沒讀論文不確定怎麼進化的
12/10 17:01, 28F
其實大家都在關注AI打敗人類了 但是阿發狗的目的好像是協助人類在棋藝上的精進 探索人類在圍棋中尚未發掘的道路

12/10 17:02, 3年前 , 29F
文章所說的是supervised learning(監督式學習),如果是
12/10 17:02, 29F

12/10 17:02, 3年前 , 30F
像下棋這類的遊戲AI是採用reinforcement learning(強化
12/10 17:02, 30F

12/10 17:02, 3年前 , 31F
式學習)
12/10 17:02, 31F
我對AI很有興趣 所以我只稍微探究過一些簡單的監督式學習原理 但是我本身是做遊戲的 所以玩AI的時候只玩過強化式學習AI 我也覺得這兩個不太一樣 但是不知道到底是怎麼回事 感謝你的解惑xD

12/10 17:05, 3年前 , 32F
理解中間的運作這陣子有新的方向了,在研究對抗型攻擊時
12/10 17:05, 32F

12/10 17:06, 3年前 , 33F
,發現防禦的方法能夠加強模型中間的可讀性,幾年內應該
12/10 17:06, 33F

12/10 17:06, 3年前 , 34F
會有一些突破
12/10 17:06, 34F
希望到時候我看得懂QQ

12/10 17:53, 3年前 , 35F
你說卷積然後放全連接的圖′_>`
12/10 17:53, 35F
我的理解好像錯了 卷積神經網路好像重點是前面的卷積層跟池化層的樣子 可以不斷卷積池化卷積池化疊上去 但是我實在看不懂那邊在幹嘛 如果可以的話還請大大說明一下 感謝

12/10 19:44, 3年前 , 36F
小妹論文本來想做AI的,可是研究越深越覺得這東西門檻
12/10 19:44, 36F

12/10 19:44, 3年前 , 37F
實在太高,很多人變成微調主流架構,於是改做GPU= =
12/10 19:44, 37F

12/10 19:45, 3年前 , 38F
卷積其實簡單講就是抓特徵,卷出來的圖就類似於Sobel
12/10 19:45, 38F

12/10 19:46, 3年前 , 39F
operator那樣的特徵圖,出來圖太大就池化縮小
12/10 19:46, 39F
很好 完全不懂 看起來這不是三言兩語就能解釋到底在幹嘛的東西= = 做GPU是什麼?用GPU算AI?還是CUDA那種東西

12/10 19:50, 3年前 , 40F
做那麼多其實也就是把大張的圖變小,又保留特徵
12/10 19:50, 40F
搭配我在網路上搜尋到的圖卷積示意圖 好像有一點懂了

12/10 20:09, 3年前 , 41F
CUDA的,做AI做的一知半解也很難弄,不如搞老本行= =
12/10 20:09, 41F

12/10 21:13, 3年前 , 42F

12/11 02:49, 3年前 , 43F
你這個叫neural network。 AI的定義更大更廣
12/11 02:49, 43F

12/11 03:33, 3年前 , 44F
CNN那邊你錯得離譜,還是閉嘴吧
12/11 03:33, 44F

12/11 13:24, 3年前 , 45F
連圖片都放錯 路過噓一下
12/11 13:24, 45F

12/11 21:32, 3年前 , 46F
應該不是所有都卷積吧
12/11 21:32, 46F
抱歉 我是菜雞 ※ 編輯: ZooseWu (111.243.108.52 臺灣), 12/12/2020 04:24:46
文章代碼(AID): #1VqTdSG0 (C_Chat)
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 7 之 19 篇):
文章代碼(AID): #1VqTdSG0 (C_Chat)