[新聞] 亞馬遜廢除招聘分析系統 因為AI會歧視女性...

看板Tech_Job作者 (報告饅頭班長不夠)時間5年前 (2018/10/10 20:30), 編輯推噓23(26343)
留言72則, 34人參與, 5年前最新討論串1/1
※ [本文轉錄自 Reewalker 信箱] 作者: paericsson (pa) 看板: Gossiping 標題: [新聞] 亞馬遜廢除招聘分析系統 因為AI會歧視女 時間: Wed Oct 10 13:12:50 2018 1.媒體來源: ※ 例如蘋果日報、奇摩新聞 自由 2.完整新聞標題: ※ 標題沒有寫出來 ---> 依照板規刪除文章 亞馬遜廢除招聘分析系統 因為AI會歧視女性... 3.完整新聞內文: ※ 社論特稿都不能貼! 違者刪除(政治類水桶3個月),貼廣告也會被刪除喔! 〔即時新聞/綜合報導〕全球電商龍頭亞馬遜公司,原本有一套秘密的招聘分析引擎,近 來亞馬遜卻決定廢除該系統,因為專家們發現負責分析履歷的AI「歧視」女性。 據《路透》報導,知情人士透露,亞馬遜秘密團隊自2014年以來,一直在建立招聘程序, 藉此自動化審查求職者的履歷並尋找頂尖人才,該招聘工具分析完求職者後,會給出1到5 星的評分。 知情人士表示,團隊給招聘系統100個履歷,它就會排出前5名,亞馬遜便雇用那些人。但 到了2015年,團隊意識到分析系統並未以性別中立的方式進行評定。 原來,亞馬遜這套招聘工具的AI在進行分析訓練時,觀察了過去10年內提交給亞馬遜的履 歷,其中顯示出了科技行業中男性的主導地位。因此,亞馬遜招聘AI「認為」男性求職者 更可取,對女性求職者進行「處罰」,例如兩間美國女子大學的畢業生都會被降低評級。 不願具名的消息人士指出,亞馬遜最後在去年年初解散了該AI團隊,因為高層對這個項目 失去了希望。亞馬遜拒絕評論此事,僅強調公司致力於工作場所的多樣性和平等。 4.完整新聞連結 (或短網址): ※ 當新聞連結過長時,需提供短網址方便網友點擊 http://news.ltn.com.tw/news/world/breakingnews/2576506 5.備註: ※ 一個人一天只能張貼一則新聞,被刪或自刪也算額度內超貼者水桶,請注意 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.216.26.1 ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1539148372.A.3D2.html

10/10 13:13, 5年前 , 1F
AI認證
10/10 13:13, 1F

10/10 13:13, 5年前 , 2F
越來越像人類了
10/10 13:13, 2F

10/10 13:13, 5年前 , 3F
#越分析越不對勁
10/10 13:13, 3F

10/10 13:13, 5年前 , 4F
搞政治正確?
10/10 13:13, 4F

10/10 13:14, 5年前 , 5F
AI都能仇女 代表?
10/10 13:14, 5F

10/10 13:14, 5年前 , 6F
搞笑,不是應該公司先訂下要什麼人才,然後
10/10 13:14, 6F

10/10 13:14, 5年前 , 7F
AI系統也是人寫的 所以會歧視的不是AI 是人
10/10 13:14, 7F

10/10 13:15, 5年前 , 8F
研發團隊進行系統研發,難不成,該團隊是自
10/10 13:15, 8F

10/10 13:15, 5年前 , 9F
偽娘和變性人不知道怎麼評分
10/10 13:15, 9F

10/10 13:15, 5年前 , 10F
已隨便玩的嗎?
10/10 13:15, 10F

10/10 13:15, 5年前 , 11F
先定義性別中立
10/10 13:15, 11F

10/10 13:16, 5年前 , 12F
教主寫的程式
10/10 13:16, 12F

10/10 13:16, 5年前 , 13F
Ai是透過資料學習的 所有資料就是這樣
10/10 13:16, 13F

10/10 13:17, 5年前 , 14F
搞不好是考慮了請假跟離職率
10/10 13:17, 14F

10/10 13:17, 5年前 , 15F
笑死 就公司需求人才適合男性
10/10 13:17, 15F

10/10 13:17, 5年前 , 16F
先控告AI團隊再告亞馬遜 賺死了
10/10 13:17, 16F

10/10 13:18, 5年前 , 17F
Ai越來越聰明了
10/10 13:18, 17F

10/10 13:19, 5年前 , 18F
阿就根據資料得出的結果 剛好女性比較慘而已
10/10 13:19, 18F

10/10 13:20, 5年前 , 19F
這又提出一個問題了。是否相信AI的解答
10/10 13:20, 19F

10/10 13:21, 5年前 , 20F
由過去雇傭的女性所得到的成果來分析 證明
10/10 13:21, 20F

10/10 13:22, 5年前 , 21F
女生的工作成果較差 故給予女性較差的分數
10/10 13:22, 21F

10/10 13:22, 5年前 , 22F
就資料學習而已,資料怎樣大數據怎樣,自然
10/10 13:22, 22F

10/10 13:22, 5年前 , 23F
應該會出bug吧 AI:請假要同酬??
10/10 13:22, 23F

10/10 13:22, 5年前 , 24F
就怎樣
10/10 13:22, 24F

10/10 13:22, 5年前 , 25F
這AI真的很公正客觀 XD
10/10 13:22, 25F

10/10 13:22, 5年前 , 26F
AI:資料顯示女性就是廢
10/10 13:22, 26F

10/10 13:22, 5年前 , 27F
所以input資料應該取消性別
10/10 13:22, 27F

10/10 13:22, 5年前 , 28F
可惜被假掰的人給關閉了 怕被罰錢吧
10/10 13:22, 28F

10/10 13:22, 5年前 , 29F
AI:你數據給我就是女性假太多
10/10 13:22, 29F

10/10 13:22, 5年前 , 30F
用什麼資料分析 當然拿什麼預測結果
10/10 13:22, 30F

10/10 13:23, 5年前 , 31F
女性的戰鬥力指數就是低啊
10/10 13:23, 31F

10/10 13:23, 5年前 , 32F
AI也懂
10/10 13:23, 32F

10/10 13:23, 5年前 , 33F
女性職員的成本高 本來就事實
10/10 13:23, 33F

10/10 13:23, 5年前 , 34F
基於這個結果, 我信AI惹...
10/10 13:23, 34F

10/10 13:23, 5年前 , 35F
一定是八卦肥宅帶壞的
10/10 13:23, 35F

10/10 13:23, 5年前 , 36F
代表這AI是成功的 居然不用 真傻
10/10 13:23, 36F

10/10 13:23, 5年前 , 37F
是否加班 是否能外勤
10/10 13:23, 37F

10/10 13:23, 5年前 , 38F
AI也是由以前的經驗學習的。表示以前...
10/10 13:23, 38F

10/10 13:24, 5年前 , 39F
意思就是 從統計上來看 女人較遜
10/10 13:24, 39F
還有 410 則推文
還有 1 段內文
10/10 22:49, 5年前 , 450F
就統計數據自然產生的結果 以後AI也要學會政治正確
10/10 22:49, 450F

10/10 22:50, 5年前 , 451F
不然會變成AI騎士
10/10 22:50, 451F

10/10 22:56, 5年前 , 452F
仇女
10/10 22:56, 452F

10/10 23:30, 5年前 , 453F
AI認證的
10/10 23:30, 453F

10/10 23:35, 5年前 , 454F
專業AI
10/10 23:35, 454F

10/10 23:55, 5年前 , 455F
扯資料男>>女train起來會有偏差的顯然才是不會train。如果
10/10 23:55, 455F

10/10 23:56, 5年前 , 456F
這堆女性都是表現前20%即使資料少,AI分析結果也會是女性
10/10 23:56, 456F

10/10 23:56, 5年前 , 457F
優於男性
10/10 23:56, 457F

10/10 23:58, 5年前 , 458F
資料不對稱的解決方法很多好嗎,只要分佈合理就沒問題
10/10 23:58, 458F

10/11 00:50, 5年前 , 459F
問題在取樣資料庫的偏異數據
10/11 00:50, 459F

10/11 01:19, 5年前 , 460F
就一間公司發現他們的AI可能會給女性較低的分數,然後
10/11 01:19, 460F

10/11 01:19, 5年前 , 461F
有人自己去推測那個AI是怎麼寫的,還罵其他人白痴,到
10/11 01:19, 461F

10/11 01:19, 5年前 , 462F
底是...?
10/11 01:19, 462F

10/11 01:22, 5年前 , 463F
寫AI的忘記加入現實模組[(長相+胸部)>(經歷+實力)]
10/11 01:22, 463F

10/11 03:07, 5年前 , 464F
網友說資訊不對稱的解決方法很多,說啥女性如果表現前20
10/11 03:07, 464F

10/11 03:07, 5年前 , 465F
%,就算人少,被AI投票也會拿高分!這種人是不知道個人
10/11 03:07, 465F

10/11 03:07, 5年前 , 466F
能力(表現)是常態分佈的嗎,在這種狀況下,人少就是劣勢
10/11 03:07, 466F

10/11 03:07, 5年前 , 467F
...
10/11 03:07, 467F

10/11 03:24, 5年前 , 468F
就算拿掉性別,男女還是有很多不一樣,ex.社團活動、科
10/11 03:24, 468F

10/11 03:24, 5年前 , 469F
系、興趣等
10/11 03:24, 469F

10/11 06:55, 5年前 , 470F
還以為想說什麼,結果扯一堆跟target無關的... xD
10/11 06:55, 470F

10/11 07:09, 5年前 , 471F
女性本身表現普通就差男性一截啊
10/11 07:09, 471F

10/11 07:30, 5年前 , 472F
那是features好嗎,最好和target無關啦
10/11 07:30, 472F

10/11 07:39, 5年前 , 473F
是feature就會拿去當input做normalize啊,那不就是說這分
10/11 07:39, 473F

10/11 07:39, 5年前 , 474F
析資料已經考慮你原本說不考慮的東西了嗎?
10/11 07:39, 474F

10/11 07:46, 5年前 , 475F
資料數量不對稱跟model input根本兩件事 = =,還是你覺得A
10/11 07:46, 475F

10/11 07:46, 5年前 , 476F
mazon資料「分佈」會不夠豐富? 數量問題能解決,資料的分
10/11 07:46, 476F

10/11 07:46, 5年前 , 477F
佈問題才會影響結果
10/11 07:46, 477F

10/11 12:33, 5年前 , 478F
我是覺得input的資料沒有性別 而ai跟據data train出
10/11 12:33, 478F

10/11 12:33, 5年前 , 479F
來選有該技能的人多是男性 新聞導因為果 deer被新聞
10/11 12:33, 479F

10/11 12:33, 5年前 , 480F
誤導了吧
10/11 12:33, 480F

10/11 15:19, 5年前 , 481F
機器學習 乃資料之統計 歸納之結果 由此可知
10/11 15:19, 481F

10/11 15:32, 5年前 , 482F
推文很好笑欸 亞馬遜工程不會解data 偏誤還3小的問題
10/11 15:32, 482F

10/11 15:32, 5年前 , 483F
嗎 你們想的到的他們會想不到嗎
10/11 15:32, 483F

10/12 00:19, 5年前 , 484F
啪啪啪啪 打臉女權廢物
10/12 00:19, 484F

10/12 00:27, 5年前 , 485F
不愧是AI,像人類
10/12 00:27, 485F

10/12 10:57, 5年前 , 486F
光是能不能出差,就卡死多數女性,就算是國外多數還
10/12 10:57, 486F

10/12 10:57, 5年前 , 487F
是女性在照顧孩子
10/12 10:57, 487F

10/13 18:17, 5年前 , 488F
這系統正確分析啊
10/13 18:17, 488F

11/20 23:24, 5年前 , 489F
我以為AI取代人類的日子還很久...
11/20 23:24, 489F
文章代碼(AID): #1RlV3NBE (Tech_Job)