Re: [新聞] AI藏種族歧視因子 清大跨國團隊揭醫

看板NTHU_Talk作者 ( )時間1年前 (2022/06/15 13:41), 編輯推噓12(1201)
留言13則, 12人參與, 1年前最新討論串1/1
嗨大家好,我是郭老師的學生也是這個研究團隊的成員之一,這幾天看到不管臉書ptt上都看 到很多人對我們的這個研究有些誤解,所以想藉此來澄清一下,很多人說這只是data的問題 ,大家有在做ml的應該都知道data很重要,但在現實生活中很難有真正完美balance的datas et,大部分的dataset都是有些缺陷的,正是因為有這些缺陷所以ml領域的很多人才會一直不 斷改良去加強ml model的能力,我們使用的dataset是由MIT所收集的MIMIC-CXR dataset,其 中種族是有病人self-report的,疾病是由醫生去看過X光片後做診斷後得來的,這些過程中 都包含了人的因素在其中,有了人的因素就免不了這些data可能存在bias,而目前公開的X光 片資料集的收集大部分都是這個流程,所以我們要做的是找方法讓model在學習時能忽視這些 bias,而不是就說dataset有問題然後就啥都不做。 還有一點我們在paper中使用的字都是bias,我們主要想表達的是”偏差”,並非強調歧視這 個意思。 再來就是想簡短的跟大家說明一下這個研究的內容,首先ai 可以分種族完全是個意外發現, 有了這個發現後就聯想到前些日子一篇paper是講述關於shortcut learning( reference放下 面),因為ai在分種族的能力非常的強,我們擔心種族會被ai當成shortcuts來使用,簡單來 說就是ai把種族當成判斷疾病的重要依據而不是拿病理特徵來判斷疾病,而有這樣的想法就 是因為另一組團隊發現種族間no finding 的false positive rate (aka 有病說成沒病)有b ias,所以我們想要讓ai沒辦法從影像中抓到種族的特徵,迫使ai去學習病理的特徵來去縮小 bias。 主要是我的帳號還沒達到八卦版天數要求,所以只能在這裡回,有興趣的可以幫我轉到八卦 版讓大家看。 Reference: 發現ai 可以分種族的paper: https://bit.ly/3mKYsLc MIMIC-CXR: https://arxiv.org/abs/1901.07042 Shortcut learning: https://go.nature.com/3tCXdBo 種族間診斷結果有差異的paper: https://go.nature.com/3HwPnPK ---- Sent from BePTT on my iPhone 13 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.186.21 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/NTHU_Talk/M.1655271713.A.3C3.html

06/15 13:43, 1年前 , 1F
哭啊排版好爛,請大家見諒
06/15 13:43, 1F

06/15 14:24, 1年前 , 2F
06/15 14:24, 2F

06/15 14:42, 1年前 , 3F
幫高調
06/15 14:42, 3F

06/15 17:29, 1年前 , 4F
06/15 17:29, 4F

06/15 20:05, 1年前 , 5F
推上學期助教 用電腦打比較好排版啦 用手機能打這麼多
06/15 20:05, 5F

06/15 20:05, 1年前 , 6F
字也是很厲害
06/15 20:05, 6F

06/15 22:42, 1年前 , 7F
好厲害 幫推
06/15 22:42, 7F

06/16 01:07, 1年前 , 8F
我已經轉囉
06/16 01:07, 8F

06/16 01:09, 1年前 , 9F
慢惹一步
06/16 01:09, 9F

06/16 01:15, 1年前 , 10F
假裝看得懂推
06/16 01:15, 10F

06/17 18:48, 1年前 , 11F
06/17 18:48, 11F

06/17 22:19, 1年前 , 12F
06/17 22:19, 12F

06/19 18:32, 1年前 , 13F
06/19 18:32, 13F
文章代碼(AID): #1YgN4XF3 (NTHU_Talk)