[新聞] AI錯認孕婦是劫車犯害關11小時 怒告美警求償上億

看板Gossiping作者 (安穩殘憶)時間2月前 (2024/02/14 20:41), 編輯推噓101(106560)
留言171則, 139人參與, 2月前最新討論串1/1
備註請放最後面 違者新聞文章刪除 1.媒體來源: ※ 例如蘋果日報、自由時報(請參考版規下方的核准媒體名單) ※ Yahoo、MSN、LINE等非直接官方新聞連結不被允許 TVBS 2.記者署名: ※ 若新聞沒有記者名字或編輯名字,請勿張貼,否則會被水桶14天 ※ 外電至少要有來源或編輯 如:法新社 彭惠筠 3.完整新聞標題: ※ 標題沒有完整寫出來 ---> 依照板規刪除文章 AI錯認孕婦是劫車犯害關11小時 怒告美警求償上億 4.完整新聞內文: ※ 社論特稿都不能貼!違者刪除(政治類水桶3個月),貼廣告也會被刪除喔!可詳看版規 https://cc.tvbs.com.tw/img/upload/2024/02/14/20240214141621-8abf1b41.jpg
圖/達志影像美聯社 現在各行各業都講求加入AI應用,包含連警察執法都希望透過高科技增加效率,美國警方 開始使用AI來辨識嫌犯,但目前應用發現,AI的辨識技術對有色人種或是非裔人士,容易 誤判,底特律一名懷胎八月的女子,就曾經被誤認成劫車的搶劫犯,被迫關了11個小時, 現在一狀告上底特律警方。 遭AI錯認民眾Porcha Woodruff:「是警察找上門來。」 回憶這段驚恐經歷,美國底特律這名非裔女子Porcha還心有餘悸,六名警察狂敲她家大門 ,指控她是劫車和搶劫犯。 遭AI錯認民眾Porcha Woodruff:「我能做什麼呢,我當時還大著肚子呢。」 懷孕8個月,連走路都是腳步沉重,怎麼可能去搶車子,但警察一口咬定她犯罪,當著孩 子的面把她上銬帶走,之後底特律警方撤銷罪名,終於承認是抓錯人。 底特律地區警長James White:「調查員就該做好調查的工作。」 但為什麼會犯這樣的錯,就是因為警方用AI去辨識嫌犯,結果比對錯誤,把Porcha的大頭 照誤認成嫌犯。 喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「這類應用還沒準備好,這還不 是一個完整的商品,(那您認為警察該使用了嗎),當然還不行。」 美國政府2019年曾公布一份研究,內容是研究200份以演算法比對臉孔的結果,發現有色 人種的錯誤率會比白人高出10倍甚至百倍以上。 喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「我們來看看會發生什麼事,來 試試看吧。」 CNN記者當場實驗,他們用四位CNN記者的臉,再加上5名喬治亞理工學院的教職員,試著 用AI軟體來辨識出這位女記者的臉。 喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「有些像這個顯示你是Victor Blackwell,但Victor Blackwell是非裔男性耶。」 女記者實測被認成男主播,而這種試錯對警方執法來說,是連一次都不能有的重大風險。 喬治亞理工學院AI專家Matthew Gombolay:「它們不能只是大部分時候正確,而是真的要 隨時都正確。」 CNN記者vs.作家Calvin Lawrence:「這過程中到底哪裡出問題,是在數據層方面出的錯 。」 研究發現,包含數據庫裡的罪犯,非裔人士比例較高,還包括若是白人的軟體開發者,餵 給AI資料庫可能都以白人照片為主,相對地對非裔或其他人種的辨識度就比較低。 AI專家Matthew Gombolay vs.CNN記者:「我們可以教導演算法種族歧視嗎?是的演算法 才不在乎這些,它們只想完成你所給予的任務。」 目前這類誤認案件,已經至少發生六起,也讓外界對AI應用的可信度,不禁要打個問號。 5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體: ※ 當新聞連結過長時,需提供短網址方便網友點擊 https://news.tvbs.com.tw/world/2395566 6.備註: ※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意 ※ 備註請勿張貼三日內新聞(包含連結、標題等) 反觀 -- 聽音樂都 wav 看影片都 avi 看圖檔都 bmp 拍張照都 raw -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.164.158.70 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1707914493.A.90C.html

02/14 20:42, 2月前 , 1F
要發財了
02/14 20:42, 1F

02/14 20:42, 2月前 , 2F
Ai不出來道歉嗎
02/14 20:42, 2F

02/14 20:42, 2月前 , 3F
訓練不足 請再加強
02/14 20:42, 3F

02/14 20:42, 2月前 , 4F
在台灣會被金拱門告恐嚇取財
02/14 20:42, 4F

02/14 20:42, 2月前 , 5F
禁止使用 只能偷偷訓練
02/14 20:42, 5F

02/14 20:42, 2月前 , 6F
AI都會種族歧視
02/14 20:42, 6F

02/14 20:42, 2月前 , 7F
果然是黑人。
02/14 20:42, 7F

02/14 20:42, 2月前 , 8F
我也常認錯人啊 這本來就不是100%
02/14 20:42, 8F

02/14 20:42, 2月前 , 9F
如果全面使用 搭配 GPS位置
02/14 20:42, 9F

02/14 20:43, 2月前 , 10F
可見AI的危害 機器人反撲人類 不遠了
02/14 20:43, 10F

02/14 20:43, 2月前 , 11F
準確率會高得嚇人
02/14 20:43, 11F

02/14 20:43, 2月前 , 12F
11小時 這波能賺幾十萬鎂?
02/14 20:43, 12F

02/14 20:43, 2月前 , 13F
AI也會種族歧視
02/14 20:43, 13F

02/14 20:43, 2月前 , 14F
台灣也有偷偷做
02/14 20:43, 14F

02/14 20:44, 2月前 , 15F
黑人
02/14 20:44, 15F

02/14 20:44, 2月前 , 16F
美國人也有年終
02/14 20:44, 16F

02/14 20:45, 2月前 , 17F
AI誠實 絕對沒有歧視
02/14 20:45, 17F

02/14 20:45, 2月前 , 18F
AI也會種族歧視+1
02/14 20:45, 18F

02/14 20:46, 2月前 , 19F
AI會越來越聰明的
02/14 20:46, 19F

02/14 20:46, 2月前 , 20F
膚色正確
02/14 20:46, 20F

02/14 20:46, 2月前 , 21F
顏色正確
02/14 20:46, 21F

02/14 20:46, 2月前 , 22F
尼哥哭
02/14 20:46, 22F

02/14 20:46, 2月前 , 23F
顏色正確
02/14 20:46, 23F

02/14 20:46, 2月前 , 24F
台灣民進黨執政喔,你看有沒有100
02/14 20:46, 24F

02/14 20:47, 2月前 , 25F
跟不上台灣 我們三重警會告回去
02/14 20:47, 25F

02/14 20:48, 2月前 , 26F
是AI的錯 不關我的事
02/14 20:48, 26F

02/14 20:48, 2月前 , 27F
all hail hydra
02/14 20:48, 27F

02/14 20:49, 2月前 , 28F
有色人種出錯率很高 不就樣本太少
02/14 20:49, 28F

02/14 20:49, 2月前 , 29F
不然就是這AI有白人腦
02/14 20:49, 29F

02/14 20:49, 2月前 , 30F
AI有苦說不出 就是這樣被氣成天網的
02/14 20:49, 30F

02/14 20:50, 2月前 , 31F
不會出錯時,大概就是skynet了 人類全殺
02/14 20:50, 31F

02/14 20:51, 2月前 , 32F
AI只是做正確的事
02/14 20:51, 32F

02/14 20:51, 2月前 , 33F
AI訓練過程中可能會把歧視一同複製
02/14 20:51, 33F

02/14 20:52, 2月前 , 34F
這不是歧視
02/14 20:52, 34F

02/14 20:52, 2月前 , 35F
政府想送你生育大禮包啦
02/14 20:52, 35F

02/14 20:52, 2月前 , 36F
AI也是人寫出來的啊,還不是被工程師害
02/14 20:52, 36F

02/14 20:52, 2月前 , 37F
得,才會搞顏色歧視
02/14 20:52, 37F

02/14 20:53, 2月前 , 38F
這讓我想到幾年前英國的一部得獎短劇
02/14 20:53, 38F

02/14 20:55, 2月前 , 39F
這群警察是智障吧
02/14 20:55, 39F
還有 92 則推文
02/14 23:32, 2月前 , 132F
階級翻身靠這次
02/14 23:32, 132F

02/14 23:44, 2月前 , 133F
這AI是40%逆?
02/14 23:44, 133F

02/14 23:47, 2月前 , 134F
應該要持續追蹤她的小孩,說不定AI算
02/14 23:47, 134F

02/14 23:47, 2月前 , 135F
出來她的小孩未來會犯罪
02/14 23:47, 135F

02/14 23:52, 2月前 , 136F
大數據資料的問題,這就不能怪執法人員
02/14 23:52, 136F

02/14 23:52, 2月前 , 137F
歧視。
02/14 23:52, 137F

02/14 23:52, 2月前 , 138F
黑人犯罪數據太多
02/14 23:52, 138F

02/14 23:53, 2月前 , 139F
這ai一定是白人做的
02/14 23:53, 139F

02/14 23:57, 2月前 , 140F
顏色正確
02/14 23:57, 140F

02/15 00:05, 2月前 , 141F
AI 是不是在歧視
02/15 00:05, 141F

02/15 00:23, 2月前 , 142F
你的眼神歧視我 你的AI歧視我
02/15 00:23, 142F

02/15 00:23, 2月前 , 143F
奶粉錢有了
02/15 00:23, 143F

02/15 00:27, 2月前 , 144F
這哪是AI 這叫財神爺重罰
02/15 00:27, 144F

02/15 01:01, 2月前 , 145F
恭喜 這次是 平安發打財
02/15 01:01, 145F

02/15 01:56, 2月前 , 146F
媽的 要賺翻了 這一定告死警察
02/15 01:56, 146F

02/15 02:02, 2月前 , 147F
黑人關起來也算是預防犯罪,這很正義
02/15 02:02, 147F

02/15 02:19, 2月前 , 148F
3輩子不愁了
02/15 02:19, 148F

02/15 02:30, 2月前 , 149F
所以尼哥天生就適合犯罪
02/15 02:30, 149F

02/15 03:51, 2月前 , 150F
黑人 女性 孕婦 這三層BUFF少說20W鎂
02/15 03:51, 150F

02/15 05:24, 2月前 , 151F
Disney影集有這劇情
02/15 05:24, 151F

02/15 07:01, 2月前 , 152F
0-30歲國家養
02/15 07:01, 152F

02/15 07:15, 2月前 , 153F
AI已經預測小孩是罪犯了吧
02/15 07:15, 153F

02/15 07:59, 2月前 , 154F
AI也會種族歧視
02/15 07:59, 154F

02/15 08:06, 2月前 , 155F
黑人不意外
02/15 08:06, 155F

02/15 08:08, 2月前 , 156F
白人被誤認就不會上新聞
02/15 08:08, 156F

02/15 08:09, 2月前 , 157F
AI整理膚色跟犯罪情況(?
02/15 08:09, 157F

02/15 08:47, 2月前 , 158F
選黑人開局 難度果然超高
02/15 08:47, 158F

02/15 08:55, 2月前 , 159F
膚色深度跟人生難度成正比果然是真的
02/15 08:55, 159F

02/15 10:58, 2月前 , 160F
黑人的確是辨認的瓶頸 簡單來說是AI的
02/15 10:58, 160F

02/15 10:58, 2月前 , 161F
確是明目張膽的歧視黑人
02/15 10:58, 161F

02/15 11:21, 2月前 , 162F
這警察絕對是腦殘40%不意外
02/15 11:21, 162F

02/15 12:08, 2月前 , 163F
白人很會裝很會騙人 但Ai不會
02/15 12:08, 163F

02/15 12:37, 2月前 , 164F
居然已經在依靠AI一板一眼的辦案了
02/15 12:37, 164F

02/15 13:35, 2月前 , 165F
AI也被寫入種族歧視的語法
02/15 13:35, 165F

02/15 13:45, 2月前 , 166F
靠腰 連AI都很美國
02/15 13:45, 166F

02/15 15:57, 2月前 , 167F
PSYCHO-PASS ?
02/15 15:57, 167F

02/15 16:17, 2月前 , 168F
AI一定是靠顏色識別
02/15 16:17, 168F

02/15 16:38, 2月前 , 169F
AI也種族歧視 因為訓練師是白人吧XD
02/15 16:38, 169F

02/15 21:52, 2月前 , 170F
AI容易誤認非裔和有色人種XDDD
02/15 21:52, 170F

02/16 13:07, 2月前 , 171F
3k黨 Ai
02/16 13:07, 171F
文章代碼(AID): #1bpBJzaC (Gossiping)