Re: [問卦] 人工智慧犯錯,通常要告誰呢?
之前研討會好像有討論到,除了使用者以外,公司一定有責任把關所以一定是咎責對象之一
,而工程師爭議
比較大,AI不是我們寫規則判斷,而是訓練出來,所以中間有錯很難歸咎是哪個人寫的哪
條程式碼,裡面就是黑盒子,所以真的要咎責範圍太大:1. 訓練模型的工程師、2. 資料收
集的工程師、3. 再加上開發模型的作者(通常模型也不是自己開發,而是拿別人/別間單
位已經開發的模型、4. 甚至很多使用別人(別家公司)「預訓練」的模組 等等
牽扯太多到可能又無法清楚咎
責,這也是近期AI無法快速應用到醫學、法學、或是生活中的障礙之一。
所以這幾年有很多研究在往xAI, explainableAI走,希望不是完全的看不懂的黑盒子end-
to-end,而是中間有些decision making,或是可視化的attention weights,來檢視AI的
決策依據是什麼,總之,歸根究底就是現在AI是深度學習-高維向量在底層運作,這種方法
導致的黑盒子現象,要能解釋到可以溯源咎責,只要我們還是用深度學習應該是無解。
※ 引述《saufu08》之銘言
: 是這樣啦!常常都會說未來人工智慧會取代人類現在很多工作。
: 那如果開自動駕駛車,搭載最新人工智慧,如果不小心出車禍了,責任在汽車對吧?
: 如果是取代藥師開藥,或是取代醫師看病、開刀,出錯了,責任也都在電腦對吧?
: 有沒有人工智慧犯錯,通常都要找誰來告求償的八卦啊?
----
Sent from BePTT on my iPhone 6s
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 115.43.122.55 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1635383383.A.A60.html
※ 編輯: tony790927 (115.43.122.55 臺灣), 10/28/2021 09:14:27
※ 編輯: tony790927 (115.43.122.55 臺灣), 10/28/2021 09:17:07
討論串 (同標題文章)