MIT 研究:人工智能模型預測 X 光片映像或存在偏見

隨著人工智能 (artificial intelligence, AI) 技術變得較為成熟,在不同範疇更為廣泛使用。例如醫生也會使用 AI 模型,分析 X 光片以改善診斷。然而,最新刊於《自然醫學》的麻省理工大學研究指,這些模型可能存在「偏見」。

截至 2024 年 5 月,美國食品藥物管理局 (FDA) 已批准了 882 種人工智慧醫療設備,其中 671 種設計用於放射學。自 2022 年以來,同一麻省理工大學的團隊證明,即使無接受過指定任務​訓練,這些診斷模型都可以準確預測圖像患者的種族、性別和年齡,而這是連最有經驗的放射科醫生都無法做到。

團隊在是次研究中使用波士頓 Beth Israel Deaconess 醫療中心公開的胸部 X 光片資料,訓練模型來預測患者是否患有肺積水、氣胸或心臟肥大。然後,他們用資料庫中無用以訓練的 X 光片測試模型。總體而言,這些模型表現良好,但大多數都表現出「公平差距」,在男、女性、白人和黑人患者的準確率之間有差異,並在女性和有色人種中表現較差。

這些模型也如此前研究所示,能夠預測患者的性別、種族和年齡。此外,每個模型進行人口統計預測的準確性與其公平差距大小之間存在顯著相關性,表明這些模型可能使用人口統計分類作為進行疾病預測的捷徑。

團隊又發現,他們可以以提高公平性的方式重新訓練模型。然而,當模型在接受訓練的同一類型患者(例如來自同一家醫院患者)上進行測試時,會達到最佳效果。不過,當這些模型應用於不同醫院的患者時,公平性差距再次出現。

團隊認為,情況是令人擔憂的。因為在許多情況下,醫院使用的模型是根據其他醫院的數據開發,而且醫院普遍會購買現成模型。

研究結果表明,使用這些 AI 模型的醫院應該在開始使用前,先對自己的患者進行評估,以確保他們不會為某些人口提供不準確的結果。團隊亦計劃嘗試開發和測試其他方法,看看是否可以建立能對新資料進行更公平預測的模型。

來源:

MIT, Study reveals why AI models that analyze medical images can be biased

報告:

Yang, Y., Zhang, H., Gichoya, J.W. & et al. (2024). The limits of fair medical imaging AI in real-world generalization. Nat Med. doi: 10.1038/s41591-024-03113-4

文/AC

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *