AIが診断や治療の意思決定に関与する時代、「十分な説明に基づく同意」の中身は根本的に再定義されなければならない。
インフォームドコンセントの法的基盤
日本におけるインフォームドコンセントの法的根拠は、以下の法令に基づいている。
医療法
医療法第1条の4第2項:
「医師、歯科医師、薬剤師、看護師その他の医療の担い手は、医療を提供するに当たり、適切な説明を行い、医療を受ける者の理解を得るよう努めなければならない。」
判例法
最高裁判決(平成13年11月27日)は、医師の説明義務について以下のように判示している。
「医師は、患者の疾患の治療のために手術を実施するに当たっては、診療契約に基づき、特別の事情のない限り、患者に対し、当該疾患の診断(病名と病状)、実施予定の手術の内容、手術に付随する危険性、他に選択可能な治療方法があれば、その内容と利害得失、予後などについて説明すべき義務がある。」
説明義務の法的性質
インフォームドコンセントは、単なる倫理的指針ではなく、診療契約上の法的義務である。説明義務違反は、たとえ手術自体が成功しても、損害賠償責任を生じさせうる(最判平成13年11月27日)。
AI介在時のインフォームドコンセント ― 何が変わるか
従来のインフォームドコンセントの要素
- 病名と病状の説明
- 推奨する治療法の説明
- 治療のリスクと利益
- 代替治療法
- 治療しない場合の予後
- 患者の同意
AI介在により追加が必要な要素
AIが診断・治療の意思決定プロセスに関与する場合、以下の追加要素が必要となる。
AI利用の事実の開示
診断や治療推奨にAIを利用していること自体を患者に伝える。「コンピュータの分析も参考にしています」のような曖昧な表現ではなく、具体的にAIが果たす役割を説明する。
AIの能力と限界の説明
AIの診断精度(例:感度90%、特異度95%)と、誤りの可能性を具体的に説明する。「完璧ではない」という一般的な注意喚起ではなく、具体的なデータに基づく説明が求められる。
AI推奨の根拠の説明
AIがなぜその診断・治療を推奨するのか、医師が理解している範囲で根拠を説明する。ブラックボックスモデルの場合、「AIがなぜそう判断したかは完全には分かりませんが、私の臨床判断ではこのように考えます」と正直に伝える。
人間による最終判断の保証
AIの出力はあくまで参考であり、最終的な判断は医師が行うことを明確にする。
AI利用を拒否する権利の説明
患者にはAI支援の診断・治療を拒否する権利があることを説明する。AI利用を拒否しても、不利益を受けないことを保証する。
説明の3層構造モデル
AI時代のインフォームドコンセントの説明は、患者のリテラシーに応じて3層構造で行うことを提案する。
第1層:基本説明(全患者に必須)
「今回の検査結果の分析にAI(人工知能)を使っています。AIは多くのデータから学習して判断を支援しますが、完璧ではなく、誤ることもあります。最終的な判断は私が医師として行います。もしAIを使わずに診てほしい場合は、おっしゃってください。」
第2層:詳細説明(希望する患者に)
「このAIは〇〇大学と△△社が共同開発したもので、約〇万件の画像データで学習されています。論文ではこの種の病変に対する検出精度は約〇%と報告されています。ただし、まれに見落としや誤検出があるため、AIの判断だけに頼ることなく、私自身の目でも確認しています。」
第3層:技術的説明(特に詳しく知りたい患者に)
AIの技術的詳細(使用モデル、学習データの特性、バリデーション結果、規制状況など)について、参考資料やウェブサイトの案内を含めて提供する。
第1層:基本説明(必須)
「〇〇さん、今回の[検査/診断]では、AI(人工知能)による分析も参考にしています。
AIは過去の多くのデータから学習した結果を示してくれますが、完璧ではなく、誤る可能性もあります。AIの結果はあくまで参考の一つであり、最終的な判断は私が医師として行います。
もしAIを使わないでほしいという場合は、遠慮なくおっしゃってください。AIを使わなくても、同じ品質の医療を提供いたします。
何かご質問はありますか?」
法的リスクの分析
AIの利用を説明しなかった場合の法的リスク
現行法には「AI利用の説明義務」を明示的に定めた条文はない。しかし、以下の法理から、説明義務が導かれる可能性がある。
1. 説明義務の範囲の拡大解釈
最高裁判例が求める説明事項の中に「実施予定の(手術の)内容」がある。AIが診断プロセスの重要な構成要素である場合、その利用は「内容」に含まれると解釈される余地がある。
2. 「重要な事実」の不告知
診療契約上の信義則(民法第1条第2項)に基づき、患者の意思決定に影響を与える「重要な事実」は告知する義務がある。AI利用が患者の意思決定に影響するかどうかが争点となりうる。
3. 比較法的視点
EU AI Act(2024年成立)第52条は、AIシステムと対話する者に対して、AI利用の事実を通知することを義務づけている。日本でも同様の規制が導入される可能性があり、先行して対応しておくことが推奨される。
現時点で、日本の裁判所がAI利用の不告知を理由に説明義務違反を認定した判例はない。しかし、EU AI Act等の国際的潮流を踏まえると、将来的に説明義務の範囲が拡大される可能性は高い。リスク管理の観点から、AI利用の開示を標準化しておくことが賢明である。
同意の撤回とAI
患者のインフォームドコンセントは、いつでも撤回可能である。AI利用に同意した患者が、途中で同意を撤回した場合の対応手順を定めておく必要がある。
同意撤回時の対応フロー
- 患者の同意撤回の意思を確認する
- AI利用を中止し、医師の判断のみで診療を継続する
- AI利用中止により診療の質が変わりうる場合は、その旨を説明する
- 同意撤回により不利益を受けないことを保証する
- 同意撤回の事実をカルテに記録する
小児・判断能力に制約のある患者のケース
小児患者
小児の場合、親権者がインフォームドコンセントの主体となる。ただし、一定の年齢・判断能力のある小児には、発達段階に応じた「インフォームドアセント」(informed assent)を求めることが推奨される。
AI利用に関しても、年齢に応じた説明が必要である。例えば、12歳以上の小児には「コンピュータも先生と一緒に考えてくれるけど、最後に決めるのは先生だよ」といった形での説明が考えられる。
認知症患者
認知症患者の場合、残存する判断能力の程度に応じて、本人への説明と成年後見人(または家族)への説明を組み合わせる。AI利用の説明においても、患者本人の理解度に応じた段階的説明が求められる。
記録と文書化
AI利用に関するインフォームドコンセントの記録は、以下の項目を含むべきである。
日付:2026年〇月〇日 患者ID:〇〇〇〇 担当医:〇〇 〇〇
1. 使用したAIシステム
- システム名:〇〇
- 製造元:〇〇
- 用途:[診断補助 / 画像解析 / リスク予測 / その他]
2. 説明内容
- AI利用の事実を説明した
- AIの能力と限界を説明した
- 最終判断は医師が行うことを説明した
- AI利用を拒否する権利を説明した
- 患者からの質問に回答した
3. 患者の反応
- 同意した
- 質問があった(内容: )
- 拒否した(代替対応: )
4. 説明層
- 第1層(基本説明)のみ
- 第2層(詳細説明)まで
- 第3層(技術的説明)まで
担当医署名: 患者署名(取得した場合):
実務上の課題と対応
課題1:毎回の説明は現実的か
すべてのAI利用に対して毎回詳細な説明を行うことは、外来業務の効率を著しく低下させる可能性がある。
対応案:初回の包括的説明と継続的な同意モデル。初回受診時にAI利用に関する包括的な説明を行い、書面で同意を得る。以後の受診では、新たなAIシステムの導入時や、AIの役割が大きく変わる場合にのみ追加説明を行う。
課題2:緊急時の対応
救急医療においては、インフォームドコンセントを取得する時間がない場合がある。
対応案:緊急事態のAI利用ポリシーを事前に策定し、院内に掲示する。事後説明の仕組みを整備する。
課題3:患者の理解度のばらつき
患者のAIリテラシーには大きなばらつきがある。
対応案:3層構造モデルの活用。患者の理解度と関心に応じて説明の深さを調整する。視覚的な資料やパンフレットの活用も有効。
この章のポイント
- AI時代のインフォームドコンセントには、従来の説明要素に加え、AI利用の開示、能力と限界の説明、拒否権の保障が必要
- 説明は3層構造(基本・詳細・技術的)で、患者のリテラシーに応じて段階的に行う
- 現行法にAI利用の説明義務を明示した条文はないが、判例法理と国際的潮流から義務が導かれる可能性が高い
- AI利用のIC記録テンプレートを標準化し、カルテに記録する仕組みを構築すべき
- 包括的同意モデルにより、日常診療の効率性との両立を図る
- EU AI Act第52条のAI通知義務は、日本の将来の規制の方向性を示唆している