メインコンテンツへスキップ
2 / 23|16分で読めます

AI時代のインフォームドコンセント

AIが介在する医療行為において、インフォームドコンセントはどう変わるべきか。法的要件と実践的ガイドラインを提示する。

AIが診断や治療の意思決定に関与する時代、「十分な説明に基づく同意」の中身は根本的に再定義されなければならない。


インフォームドコンセントの法的基盤

日本におけるインフォームドコンセントの法的根拠は、以下の法令に基づいている。

医療法

医療法第1条の4第2項

「医師、歯科医師、薬剤師、看護師その他の医療の担い手は、医療を提供するに当たり、適切な説明を行い、医療を受ける者の理解を得るよう努めなければならない。」

判例法

最高裁判決(平成13年11月27日)は、医師の説明義務について以下のように判示している。

「医師は、患者の疾患の治療のために手術を実施するに当たっては、診療契約に基づき、特別の事情のない限り、患者に対し、当該疾患の診断(病名と病状)、実施予定の手術の内容、手術に付随する危険性、他に選択可能な治療方法があれば、その内容と利害得失、予後などについて説明すべき義務がある。」

説明義務の法的性質

インフォームドコンセントは、単なる倫理的指針ではなく、診療契約上の法的義務である。説明義務違反は、たとえ手術自体が成功しても、損害賠償責任を生じさせうる(最判平成13年11月27日)。


AI介在時のインフォームドコンセント ― 何が変わるか

従来のインフォームドコンセントの要素

  1. 病名と病状の説明
  2. 推奨する治療法の説明
  3. 治療のリスクと利益
  4. 代替治療法
  5. 治療しない場合の予後
  6. 患者の同意

AI介在により追加が必要な要素

AIが診断・治療の意思決定プロセスに関与する場合、以下の追加要素が必要となる。

AI利用の事実の開示

診断や治療推奨にAIを利用していること自体を患者に伝える。「コンピュータの分析も参考にしています」のような曖昧な表現ではなく、具体的にAIが果たす役割を説明する。

AIの能力と限界の説明

AIの診断精度(例:感度90%、特異度95%)と、誤りの可能性を具体的に説明する。「完璧ではない」という一般的な注意喚起ではなく、具体的なデータに基づく説明が求められる。

AI推奨の根拠の説明

AIがなぜその診断・治療を推奨するのか、医師が理解している範囲で根拠を説明する。ブラックボックスモデルの場合、「AIがなぜそう判断したかは完全には分かりませんが、私の臨床判断ではこのように考えます」と正直に伝える。

人間による最終判断の保証

AIの出力はあくまで参考であり、最終的な判断は医師が行うことを明確にする。

AI利用を拒否する権利の説明

患者にはAI支援の診断・治療を拒否する権利があることを説明する。AI利用を拒否しても、不利益を受けないことを保証する。


説明の3層構造モデル

AI時代のインフォームドコンセントの説明は、患者のリテラシーに応じて3層構造で行うことを提案する。

第1層:基本説明(全患者に必須)

「今回の検査結果の分析にAI(人工知能)を使っています。AIは多くのデータから学習して判断を支援しますが、完璧ではなく、誤ることもあります。最終的な判断は私が医師として行います。もしAIを使わずに診てほしい場合は、おっしゃってください。」

第2層:詳細説明(希望する患者に)

「このAIは〇〇大学と△△社が共同開発したもので、約〇万件の画像データで学習されています。論文ではこの種の病変に対する検出精度は約〇%と報告されています。ただし、まれに見落としや誤検出があるため、AIの判断だけに頼ることなく、私自身の目でも確認しています。」

第3層:技術的説明(特に詳しく知りたい患者に)

AIの技術的詳細(使用モデル、学習データの特性、バリデーション結果、規制状況など)について、参考資料やウェブサイトの案内を含めて提供する。

プロンプト

第1層:基本説明(必須)

「〇〇さん、今回の[検査/診断]では、AI(人工知能)による分析も参考にしています。

AIは過去の多くのデータから学習した結果を示してくれますが、完璧ではなく、誤る可能性もあります。AIの結果はあくまで参考の一つであり、最終的な判断は私が医師として行います。

もしAIを使わないでほしいという場合は、遠慮なくおっしゃってください。AIを使わなくても、同じ品質の医療を提供いたします。

何かご質問はありますか?」


法的リスクの分析

AIの利用を説明しなかった場合の法的リスク

現行法には「AI利用の説明義務」を明示的に定めた条文はない。しかし、以下の法理から、説明義務が導かれる可能性がある。

1. 説明義務の範囲の拡大解釈

最高裁判例が求める説明事項の中に「実施予定の(手術の)内容」がある。AIが診断プロセスの重要な構成要素である場合、その利用は「内容」に含まれると解釈される余地がある。

2. 「重要な事実」の不告知

診療契約上の信義則(民法第1条第2項)に基づき、患者の意思決定に影響を与える「重要な事実」は告知する義務がある。AI利用が患者の意思決定に影響するかどうかが争点となりうる。

3. 比較法的視点

EU AI Act(2024年成立)第52条は、AIシステムと対話する者に対して、AI利用の事実を通知することを義務づけている。日本でも同様の規制が導入される可能性があり、先行して対応しておくことが推奨される。

現時点で、日本の裁判所がAI利用の不告知を理由に説明義務違反を認定した判例はない。しかし、EU AI Act等の国際的潮流を踏まえると、将来的に説明義務の範囲が拡大される可能性は高い。リスク管理の観点から、AI利用の開示を標準化しておくことが賢明である。


同意の撤回とAI

患者のインフォームドコンセントは、いつでも撤回可能である。AI利用に同意した患者が、途中で同意を撤回した場合の対応手順を定めておく必要がある。

同意撤回時の対応フロー

  1. 患者の同意撤回の意思を確認する
  2. AI利用を中止し、医師の判断のみで診療を継続する
  3. AI利用中止により診療の質が変わりうる場合は、その旨を説明する
  4. 同意撤回により不利益を受けないことを保証する
  5. 同意撤回の事実をカルテに記録する

小児・判断能力に制約のある患者のケース

小児患者

小児の場合、親権者がインフォームドコンセントの主体となる。ただし、一定の年齢・判断能力のある小児には、発達段階に応じた「インフォームドアセント」(informed assent)を求めることが推奨される。

AI利用に関しても、年齢に応じた説明が必要である。例えば、12歳以上の小児には「コンピュータも先生と一緒に考えてくれるけど、最後に決めるのは先生だよ」といった形での説明が考えられる。

認知症患者

認知症患者の場合、残存する判断能力の程度に応じて、本人への説明と成年後見人(または家族)への説明を組み合わせる。AI利用の説明においても、患者本人の理解度に応じた段階的説明が求められる。


記録と文書化

AI利用に関するインフォームドコンセントの記録は、以下の項目を含むべきである。

プロンプト

日付:2026年〇月〇日 患者ID:〇〇〇〇 担当医:〇〇 〇〇

1. 使用したAIシステム

  • システム名:〇〇
  • 製造元:〇〇
  • 用途:[診断補助 / 画像解析 / リスク予測 / その他]

2. 説明内容

  • AI利用の事実を説明した
  • AIの能力と限界を説明した
  • 最終判断は医師が行うことを説明した
  • AI利用を拒否する権利を説明した
  • 患者からの質問に回答した

3. 患者の反応

  • 同意した
  • 質問があった(内容: )
  • 拒否した(代替対応: )

4. 説明層

  • 第1層(基本説明)のみ
  • 第2層(詳細説明)まで
  • 第3層(技術的説明)まで

担当医署名患者署名(取得した場合):


実務上の課題と対応

課題1:毎回の説明は現実的か

すべてのAI利用に対して毎回詳細な説明を行うことは、外来業務の効率を著しく低下させる可能性がある。

対応案:初回の包括的説明と継続的な同意モデル。初回受診時にAI利用に関する包括的な説明を行い、書面で同意を得る。以後の受診では、新たなAIシステムの導入時や、AIの役割が大きく変わる場合にのみ追加説明を行う。

課題2:緊急時の対応

救急医療においては、インフォームドコンセントを取得する時間がない場合がある。

対応案:緊急事態のAI利用ポリシーを事前に策定し、院内に掲示する。事後説明の仕組みを整備する。

課題3:患者の理解度のばらつき

患者のAIリテラシーには大きなばらつきがある。

対応案:3層構造モデルの活用。患者の理解度と関心に応じて説明の深さを調整する。視覚的な資料やパンフレットの活用も有効。

この章のポイント

  • AI時代のインフォームドコンセントには、従来の説明要素に加え、AI利用の開示、能力と限界の説明、拒否権の保障が必要
  • 説明は3層構造(基本・詳細・技術的)で、患者のリテラシーに応じて段階的に行う
  • 現行法にAI利用の説明義務を明示した条文はないが、判例法理と国際的潮流から義務が導かれる可能性が高い
  • AI利用のIC記録テンプレートを標準化し、カルテに記録する仕組みを構築すべき
  • 包括的同意モデルにより、日常診療の効率性との両立を図る
  • EU AI Act第52条のAI通知義務は、日本の将来の規制の方向性を示唆している