隨著AI人工智慧技術快速發展,醫療領域的應用逐漸普及,但伴隨而來的倫理、安全與公平性問題也日益受到重視。為打造安全可信的AI醫療環境,衛福部自2024年起推動「負責任AI執行中心」計畫,致力於建構透明且可監督的AI醫療系統。至2025年,此計畫已補助10家大型醫療院所,包含林口長庚、台北榮總、高醫大附設中和醫院、中國醫藥大學附設醫院、彰化基督教醫院、奇美醫院、聯新國際醫院、嘉義長庚、土城長庚及新北仁康醫院,至少導入10項負責任AI的實際應用,以推廣AI醫療的安全與效益。
根據衛福部表示,此計畫有三大核心推動方向,包括完善AI治理制度、強化醫療資料安全、及確保AI系統公平性與倫理性。在治理方面,各家醫療院所將依自身需求建立嚴謹的AI系統導入及監管制度,全面遵循衛福部所訂定的九大透明性原則,公開演算法設計、訓練資料來源等關鍵資訊。此外,醫院亦須建立完整的AI生命週期管理機制,有效降低AI技術落地的潛在風險,提升醫護人員與民眾的信任感。
在安全與隱私保護面向,醫院已全面採用國際資安標準,加強防範網路攻擊與資料洩漏,同時嚴格遵守個資法,確保病人資料的安全性與隱私性。此外,各院所也會定期進行安全風險評估,以即時修補系統漏洞,確保AI系統運行的穩定性。
另外,針對醫療AI系統潛在的偏見問題,負責任AI執行中心特別要求合作院所採用多元且均衡的資料集,避免AI演算法產生診斷上的不公平。此外,每家醫院皆需成立由醫療、法律、倫理專家與病人代表組成的AI倫理委員會,定期審視系統公平性,防止醫療資源不均的狀況發生。
衛福部指出,「負責任AI執行中心」計畫不僅凸顯台灣在醫療科技領域的領先地位,也為全球AI醫療倫理治理提供重要典範。未來將持續擴大推廣,期待醫界與民眾共同參與與支持,讓AI科技真正造福人群,提升國人的健康福祉。