Re: [新聞] AI藏種族歧視因子 清大跨國團隊揭醫
嗨大家好,我是郭老師的學生也是這個研究團隊的成員之一,這幾天看到不管臉書ptt上都看
到很多人對我們的這個研究有些誤解,所以想藉此來澄清一下,很多人說這只是data的問題
,大家有在做ml的應該都知道data很重要,但在現實生活中很難有真正完美balance的datas
et,大部分的dataset都是有些缺陷的,正是因為有這些缺陷所以ml領域的很多人才會一直不
斷改良去加強ml model的能力,我們使用的dataset是由MIT所收集的MIMIC-CXR dataset,其
中種族是有病人self-report的,疾病是由醫生去看過X光片後做診斷後得來的,這些過程中
都包含了人的因素在其中,有了人的因素就免不了這些data可能存在bias,而目前公開的X光
片資料集的收集大部分都是這個流程,所以我們要做的是找方法讓model在學習時能忽視這些
bias,而不是就說dataset有問題然後就啥都不做。
還有一點我們在paper中使用的字都是bias,我們主要想表達的是”偏差”,並非強調歧視這
個意思。
再來就是想簡短的跟大家說明一下這個研究的內容,首先ai 可以分種族完全是個意外發現,
有了這個發現後就聯想到前些日子一篇paper是講述關於shortcut learning( reference放下
面),因為ai在分種族的能力非常的強,我們擔心種族會被ai當成shortcuts來使用,簡單來
說就是ai把種族當成判斷疾病的重要依據而不是拿病理特徵來判斷疾病,而有這樣的想法就
是因為另一組團隊發現種族間no finding 的false positive rate (aka 有病說成沒病)有b
ias,所以我們想要讓ai沒辦法從影像中抓到種族的特徵,迫使ai去學習病理的特徵來去縮小
bias。
主要是我的帳號還沒達到八卦版天數要求,所以只能在這裡回,有興趣的可以幫我轉到八卦
版讓大家看。
Reference:
發現ai 可以分種族的paper: https://bit.ly/3mKYsLc
MIMIC-CXR: https://arxiv.org/abs/1901.07042
Shortcut learning: https://go.nature.com/3tCXdBo
種族間診斷結果有差異的paper: https://go.nature.com/3HwPnPK
----
Sent from BePTT on my iPhone 13
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.186.21 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/NTHU_Talk/M.1655271713.A.3C3.html
→
06/15 13:43,
1年前
, 1F
06/15 13:43, 1F
推
06/15 14:24,
1年前
, 2F
06/15 14:24, 2F
推
06/15 14:42,
1年前
, 3F
06/15 14:42, 3F
推
06/15 17:29,
1年前
, 4F
06/15 17:29, 4F
推
06/15 20:05,
1年前
, 5F
06/15 20:05, 5F
推
06/15 20:05,
1年前
, 6F
06/15 20:05, 6F
推
06/15 22:42,
1年前
, 7F
06/15 22:42, 7F
推
06/16 01:07,
1年前
, 8F
06/16 01:07, 8F
推
06/16 01:09,
1年前
, 9F
06/16 01:09, 9F
推
06/16 01:15,
1年前
, 10F
06/16 01:15, 10F
推
06/17 18:48,
1年前
, 11F
06/17 18:48, 11F
推
06/17 22:19,
1年前
, 12F
06/17 22:19, 12F
推
06/19 18:32,
1年前
, 13F
06/19 18:32, 13F