國際產業動態
醫療AI國際標準上路!美FDA與加拿大、英國監管機構合作提出指導原則
2021-10-29

美國FDA正在與加拿大和英國的監管機構合作,提出了10項指導原則,概述開發AI賦能醫療保健產品和醫材設備的最佳實踐。這份文的主要目的是強調機構所描述─“Good Machine Learning Practice(簡稱GMLP)”,這將做為發展以產品製造或臨床測試為中心的產業品質標準。

美國FDA去年成立的數位健康卓越中心主任Bakul Patel表示:“隨著AI/ML醫材設備領域發展迅速,我們的三個監管機構共同看到了一個全球的機會,GMLP的最佳實踐和共識標準也必須發展。”。

這項工作為美國FDA與加拿大衛生部和英國藥物及保健產品管理局(MHRA)合作的開始,主要為國際醫療器材法規論壇(International Medical Device Regulators Forum, 簡稱IMDRF)奠定基礎—該論壇包括來自澳洲、巴西和中國、歐洲、日本、俄羅斯、新加坡和韓國的管理機構。

這10項指導原則主要在確定制定國際法規協和及共識標準的領域(包括 IMDRF 和其他全球組織),以及在涉及未來AI賦能的研究和工具時,使監管政策保持一致的一種方式。

具體來說,美國FDA希望這可以作為未來專門為醫療保健量身定制的AI指南的起點,或推動採用已在其他領域得到證明的最佳實踐。

更重要的是,在整個產品生命週期的各個階段都需要多個跨學科專業知識,以便於更全面了解患者面臨的任何潛在風險以及AI模型如何最終整合到臨床工作的流程中。

這些原則還包括需要將訓練資料集(Training Datasets)與測試資料集(Testing Datasets)分開,並且該資訊準確地代表預期的患者群體。

此外,該設備的測試應反映其在臨床相關條件下的使用情況,成功的標準應側重於使用AI的醫師、護理師和技術人員的表現,而不是AI本身的表現。應向用戶提供清晰、必要的資訊,並讓用戶了解在新的真實世界數據(real-world data)上重新訓練模型時發生的修改或更新。

※10項指導原則內容如下:

  1. 在整個產品生命週期中要利用跨學科的專業知識:深入了解模型與臨床工作流程的預期整合,以及預期的好處和相關的患者風險,以幫助確保支持ML的醫材設備是安全且有效的,並在產品的生命週期內滿足臨床上有意義的需求。
  2. 施行良好的軟體工程和安全性實踐:在實施模型設計時要注意”基本原理"─良好的軟體工程實踐、資料品質保證、資料管理,以及醫材的網路安全實踐。這些做法包括有條理的考慮風險管理和設計過程,可以適當地捕捉和溝通設計、施行和風險管理的決策和理論依據,以確保資料的真實性和完整性。
  3. 臨床研究參與者和資料集要能代表預期的患者群體:資料收集協定應確保預期病人群體的相關特徵(例如:年齡、性別、種族和族群方面)、使用情況和衡量投入在臨床上要有足夠的樣本量。足夠規模的樣本中,才能充分代表臨床研究、訓練和測試資料集的使用和衡量投入,以便將結果合理地推廣到相關人群。
  4. 訓練資料集需獨立於測試資料集訓練資料集和測試資料集的選擇和維護,要適當地讓兩個資料集相互獨立。所有潛在的依賴性來源,包括病人、資料取得和現場因素;應考慮並解決,以確保其獨立性。
  5. 選定的參考資料集要採用現有的最佳方法:可接受採用最佳方法來開發參考資料集(即參考標準),確保收集到與臨床相關和特徵明確的資料,並瞭解參照物的侷限性。如果可以的話,在模型開發和測試中使用公認的參考資料集,以證明模型的穩健性,以及在可預期的病人群體中被普遍的使用。
  6. 模型設計要根據現有的資料所制定,來充分反映設備的預期用途:模型設計適用於現有的資料,並積極緩解已知的可能風險,如過度配適 (Overfitting)、效能下降和安全性風險。
  7. 重點應放在人-AI組隊的表現上:在模型"Human-in-the-loop"的情况下,人為的因素要被考慮、模型自身的決策結果對人來說是可被理解、可得到解決,重點應放在人機協力下的團隊效能,而不僅是模型的獨立運作表現。
  8. 在臨床相關條件下來測試驗證設備的效能:制定並執行在統計上有意義的測試計畫,以產生獨立於訓練資料集的臨床相關設備效能資訊。考慮的要素包括預期的病人群體、重要的部分亞群、臨床環境和人-AI組隊的使用。測量的輸入值,以及潛在的干擾因素。
  9. 為使用者提供清晰的基本資訊:用戶可隨時獲得清楚、與背景值相關的適當資訊,包括:產品的預期用途和適應症,模型在適當的亞群中的表現,用於訓練和測試的資料的特點,這些資訊適合於預期的受眾(如醫療保健提供者或病人)。產品的預期用途和適應症,模型在適當亞群中的表現,用於訓練和測試模型的資料特徵,可接受的輸入值、已知的限制、使用者介面的說明,以及模型在臨床工作流程上的整合。
  10. 對已部署的模型進行效能監測,並對Re-training的風險進行管理:部署的模型有能力在 "真實世界 "中使用來進行監測,重點是保持/改善安全性和效能。此外,當模型在部署後被定期或持續訓練時,應有適當的控制措施來管理過度配適(Overfitting)的風險。非故意的偏差或模型的退化(例如,資料集的資料漂移),因為被人-AI組隊時所使用,這些都可能影響模型的安全性和效能。

※完整AI/ML醫材開發的GMLP指導原則全文詳見。

 

來源:Fiercebiotech、美國FDA  生策中心編譯

本網站中所有資料(包括圖檔及文字檔),著作權皆屬本會所有(除另有註明者,或本會網站連結至外部之網站除外),如有引用,請確實註明出處來源。<完整資訊>
© 2024 Institute for Biotechnology and Medicine Industry (IBMI) All rights reserved.
地址:115 台北市南港區忠孝東路七段508號9樓 電話:(02)2655-8168 傳真:(02)2655-7978