跳到主要內容區塊
:::

負責任AI三大落地實施策略

Print

    資安維護與隱私保護

    1. 遵循國內外資安法規與標準
    依據衛生福利部的規定,國內醫學中心須遵守《醫療機構資通安全管理指引》《資通安全管理法》《個人資料保護法》等相關法規。目前本院內部更新醫療資訊系統時,需依據資安檢核表達到「高級」等級,並定期進行維護與資安稽核,確保病患資料的保護與系統安全。
    2. 標準化管理流程確保 AI 應用安全
    本中心相關辦法與標準,制定標準化流程涵蓋 AI 產品申請、審核及持續監測 三大核心環節,以確保負責任 AI 應用的安全性與隱私保護,為醫療團隊及使用者提供更可靠的智慧醫療把關。
     
     
     
    💡 九大透明性原則與負責任 AI 落地管理
    我們透過九大透明性原則,結合可解釋性分析(Explainability Analysis),確保醫療 AI 的決策過程可理解、可信賴。

    落實「停用或再調校機制」,具有明確的啟動程序權責單位、標準化作業流程與標準下限值定義。目標是在新 AI 產品進入醫院時,逐步導入管理機制,確保 AI 技術能真正提升醫療效益,而非增加風險。
    1. 介入詳情與輸出
    • 描述AI系統分析的細節和輸出的具體結果。
    2. 介入目的
    • 明確AI系統的主要目的,如輔助診斷、提高早期發現率等。
    3. 介入的警告範圍外使用
    • 說明AI系統不應用於哪些範圍,以避免誤用。
    4. 介入開發詳情及輸入特徵
    • 描述AI系統的開發過程及所使用的數據特徵。
    5. 確保開發過程公平性的措施
    • 描述為確保AI系統公平性所採取的措施。
    6. 外部驗證過程
    • 描述AI系統如何在不同環境中進行外部驗證。
    7. 性能的量化指標
    • 提供AI系統性能的具體數據和指標。
    8. 介入實施和使用的持續維護
    • 描述AI系統的維護和更新計劃。
    9. 持續更新和公平性評估計劃
    • 描述AI系統的持續更新和公平性評估計劃。

    AI 生命週期管理

    1. AI 生命週期管理簡介

    人工智慧在醫療領域的應用須確保安全性、合規性及持續有效性,因此 AI 生命週期管理(AI Lifecycle)成為醫院導入 AI 的重要管理機制。AI 技術應用全程均需納入風險評估與監測,以確保模型的穩定性、準確性與透明性。

    2. 醫院作法:監測標準與應變機制

    本院對導入的 AI 技術採取全生命週期監測機制,透過以下措施確保其安全與穩定性:

    1) 監測標準:
    • 依據九大透明性原則與可解釋性分析,訂定可量化的監測指標,如模型準確度、偏差率、解釋性評估分數等。
    • 定期(如每年)進行監測,以確保 AI 系統符合標準。
    2) 異常應變機制:
    • 若監測指標低於規範下限,負責任 AI 執行中心即啟動 AI 停用機制,防止潛在風險擴大。
    • 相關異常將提報至負責任 AI 臨床落地委員會進行審查,確保決策透明。
    3) 修正與重新驗證:
    • 停用後,原申請單位須重新驗證並校調 AI 模型,確保其達到標準要求。
    • 直至監測指標數據回復至合格範圍,才允許恢復 AI 應用,確保臨床決策輔助的安全性與可靠性Art editor Img
    抱歉,找不到相關資訊
    :::