医療AI規制の最新動向(2026年2月)
医療AIの急速な発展に伴い、各国の規制・法整備も加速しています。本記事では、日本と世界の医療AI規制の最新動向を整理し、臨床現場で知っておくべきポイントをまとめます。
日本の動向
改正次世代医療基盤法の施行(2024年4月〜)
2023年5月26日に公布された改正次世代医療基盤法が、2024年4月1日に施行されました。主な変更点は以下の通りです:
- 仮名加工医療情報の利活用: 新たに「仮名加工医療情報」の概念が導入され、従来の匿名加工に加えて仮名加工による医療情報の利活用が可能に
- 薬事承認申請への活用: 認定仮名加工医療情報利用事業者からPMDA等への提供が認められ、製薬企業等の研究開発がより促進される見込み
- データ利活用の拡大: 研究目的でのデータ提供の柔軟性が向上
PMDA: プログラム医療機器審査体制の強化
PMDAは2024年7月1日に「プログラム医療機器審査室」を「プログラム医療機器審査部」に格上げし、領域ごとの2チーム体制に拡充しました。
- DASH for SaMD: 2020年11月公表の「プログラム医療機器実用化促進パッケージ戦略」に基づき、SaMDの特性を踏まえた承認審査制度の整備が進行中
- SaMD認証審査の留意事項: 2025年9月にはARCBとPMDAの定期会議で、SaMD認証審査の留意点が議論されています
参考: PMDA プログラム医療機器
個人情報保護法の改正動向(2025年)
個人情報保護法の改正議論が進んでおり、医療分野への影響が注目されています:
- 同意なしデータ利用の拡大: 統計情報の作成やAI開発など、特定目的での同意なしデータ利用が可能に
- 組織横断的なデータ共有: 個人識別性を排除した状態での複数組織間データ共有が、個別同意なしに可能となる見込み
- ヘルスケア生成AI活用ガイド第2.0版: 2025年2月にヘルスケア領域で生成AIを活用するサービス事業者向けの自主ガイドラインが第2.0版に改訂
厚生労働省: 医療デジタルデータのAI利活用ガイドライン
厚生労働省は、医療デジタルデータのAI研究開発等への利活用に係るガイドラインを策定。個人情報保護法に基づくデータ処理方法と、留意すべき事項をまとめています。
参考: 厚労省 医療デジタルデータのAI研究開発等への利活用
海外の動向
EU AI Act: 医療機器への影響
EU AI Actの段階的施行が進んでおり、医療機器への影響が本格化しています:
| 時期 | 施行内容 |
|---|---|
| 2025年8月2日 | 汎用AI(GPAI)モデル、ガバナンス、罰則規定の適用開始 |
| 2026年8月2日 | 2026年8月以前に市場投入された高リスクAIシステムのコンプライアンス義務 |
| 2027年8月 | 高リスクAIシステム(医療機器・IVD含む)の完全コンプライアンス義務 |
医療機器への影響:
- 多くのスマート医療機器がAI Actの「高リスク」カテゴリに分類
- 二重規制: MDR(医療機器規則)とAI Actの両方に準拠が必要
- 技術文書、リスクマネジメント、人間の監視、透明性の義務
- 2025年6月にはMDCG 2025-6(AI Actと MDR/IVDRの重複に関するFAQ)が公表
参考: EU AI Act Impact on Life Sciences
FDA: AI/ML医療機器の急増
米国FDAは、AI/ML対応医療機器の承認を加速させています:
- 累計約950件: 2024年中頃までにFDAが承認したAI/ML対応医療機器は約950件に到達
- 年間約100件の新規承認: 毎年約100件のペースで新規承認が継続
- ライフサイクルアプローチ: FDAはSaMDの既存法的枠組みに加え、AI/ML-Based SaMD Action Plan(2021年)に基づくライフサイクルベースの規制アプローチを推進
- 変更プロトコルの重視: アルゴリズム変更プロトコル(PCCP)と市販後モニタリングを重視
参考: FDA AI/ML-Enabled Medical Devices
WHO: 大規模マルチモーダルモデルのガイダンス(2024年1月)
WHOは2024年1月18日に、大規模マルチモーダルモデル(LMM)の倫理・ガバナンスに関するガイダンスを発表しました。40以上の推奨事項を含み、以下の主体ごとに提言しています:
政府向け:
- 公共インフラへの投資
- LMMとヘルスケアアプリケーションが倫理的義務と人権基準を満たすための法整備
- 規制機関によるLMMの評価・承認
- 独立第三者による市販後監査・影響評価の義務化
開発者向け:
- 開発初期段階からの多様なステークホルダーの関与
- 正確性と信頼性を重視したタスク特化設計
参考: WHO LMM Ethics and Governance Guidance
グローバルイニシアチブ: GI-AI4H
WHOが設立した「Global Initiative on Artificial Intelligence for Health(GI-AI4H)」は、国連横断的にAIガバナンス基準の調和を図る取り組みです。特に低・中所得国でのヘルスAIの倫理的・公平な活用を推進しています。
臨床現場で押さえるべきポイント
1. 患者データの取り扱い
- 改正次世代医療基盤法により、仮名加工医療情報の利活用が拡大
- 個人情報保護法の改正議論で、AI開発目的のデータ利用が柔軟化の方向
- ただし、診療目的での患者データのAI入力は依然として慎重な対応が必要
2. AI医療機器の法的位置づけ
- 日本ではPMDAのSaMD審査体制が強化され、承認プロセスが整備されつつある
- 未承認のAIツールを診断補助に使う場合の法的リスクに留意
- 承認済みSaMDと汎用AI(ChatGPT等)は法的に全く異なる扱い
3. 国際的な規制動向への備え
- EU AI Actの「高リスク」分類は、EU市場にAI医療機器を投入する日本企業にも影響
- 国際標準(ISO/IEC)のAI関連規格の策定が加速しており、将来的に日本の規制にも影響する可能性
まとめ
2024〜2026年の医療AI規制の主要トレンドは以下の通りです:
- 日本: 次世代医療基盤法改正で仮名加工医療情報の利活用が本格化。PMDA体制強化でSaMD審査が加速
- EU: AI Actの段階的施行が進行中。2027年までに高リスクAIシステムの完全コンプライアンスが求められる
- 米国: FDAのAI/ML医療機器承認が累計950件超。ライフサイクルアプローチが主流に
- WHO: LMMの倫理・ガバナンスガイダンスを発表。グローバルな規制調和を推進
- 共通トレンド: 「安全性」と「イノベーション促進」のバランスを模索する段階
注意: 本記事は公開情報に基づく概要です。具体的な法的判断は、最新の法令原文と専門家の助言に基づいて行ってください。