メインコンテンツへスキップ
AI基礎|ガイド

研修医のためのAI安全ガイド

医療現場でAIを安全に使うための必須知識。個人情報保護、ハルシネーション対策、倫理的配慮を具体例で解説

Ken OkamotoKen Okamoto|2026-02-2438分で読めます
安全個人情報倫理研修医

研修医のためのAI安全ガイド:知らなかったでは済まされない7つのルール

はじめに

ChatGPTやClaudeなどの生成AIは、医療者の強力なツールになりえます。鑑別診断の整理、論文検索、文書作成の効率化など、その可能性は大きい。しかし、「使い方を間違える」と、患者の個人情報漏洩、誤った治療判断、さらには懲戒処分につながるリスクがあります。

本ガイドは、AIの利便性を享受しつつ、安全に使うための実践的なルールをまとめたものです。法律論や技術論ではなく、「明日から使える具体的な行動指針」に焦点を当てています。

これは「AIを使うな」というガイドではありません。「正しく使え」というガイドです。


このガイドで学べること

  • AIに入力してよい情報といけない情報の明確な基準
  • 患者情報の匿名化チェックリスト
  • ハルシネーション(AI幻覚)の見分け方と裏取りの方法
  • 指導医やチームとのAI利用に関するコミュニケーション
  • 施設のAIポリシーの確認方法
  • 倫理的配慮と法的リスクの理解

対象読者

  • 初期研修医(AIを使い始めたばかりの方)
  • 後期研修医(AIを日常的に使っている方)
  • AIの安全利用について指導する立場の方
  • 医学生(臨床実習でAIを使いたい方)

所要時間

  • 通読: 約30分
  • このガイドは「一度読んで終わり」ではなく、定期的に見返すことを推奨します

ルール1: AIに入力してよい情報/いけない情報

基本原則

AIへの入力は「世界中に公開しても問題ない情報」のみにする。

ChatGPT、Claude、Perplexityなどの汎用AIサービスは、入力されたデータを学習に使用する可能性があります(サービスやプランにより異なります)。仮にサービス提供者が「学習に使わない」と明言していても、データ漏洩のリスクはゼロではありません。


入力してよい情報(Green Zone)

以下の情報は、AIに入力しても問題ありません。

  • 一般的な医学知識の質問: 「心不全の分類を教えて」「メロペネムの腎機能調整用量は?」
  • 匿名化された症例情報: 年齢層(70代)、性別、主訴、バイタルサインなどの臨床データ(個人を特定できない形式で)
  • 公開されている論文やガイドラインの内容: PubMedで公開されているAbstractなど
  • 自分自身の学習に関する質問: 「CASPチェックリストの使い方を教えて」
  • プレゼンテーションや文書のテンプレート作成: 匿名化された情報に基づく

入力してはいけない情報(Red Zone)

以下の情報は、絶対にAIに入力しないでください

  • 患者の氏名: フルネーム、イニシャルも避ける
  • 生年月日・年齢(詳細): 「1952年3月15日生まれ」「72歳」は避ける。「70代」は可
  • 患者ID・カルテ番号: 施設の管理番号は絶対に入力しない
  • 住所・電話番号・メールアドレス: 患者の連絡先情報
  • 施設名: 「〇〇大学病院の△△科に入院中の...」は避ける
  • 画像データ: CT、MRI、心電図などの画像データ(患者IDが埋め込まれている場合がある)
  • 処方箋や診断書のスキャンデータ: 患者情報が含まれている
  • 希少疾患 + 詳細な臨床経過の組み合わせ: 希少疾患は患者の特定につながりやすい

グレーゾーンの判断基準

「これは入力してよいのか」迷った時は、以下の3つの質問を自分に問いかけてください。

  1. この情報で患者を特定できるか? → 特定できる可能性がある場合は入力しない
  2. この情報が漏洩した場合、患者に不利益があるか? → 不利益がある場合は入力しない
  3. この情報を指導医に見せても問題ないか? → 問題がある場合は入力しない

3つ全てが「問題ない」と判断できた場合のみ、入力してよいと考えてください。


ルール2: 患者情報の匿名化チェックリスト

5項目の匿名化チェック

AIに症例情報を入力する前に、以下の5項目を必ずチェックしてください。

チェック1: 直接識別子の削除

  • 氏名を削除した(イニシャルも含む)
  • 生年月日を削除し、年齢層(例: 70代)に置き換えた
  • 患者ID・カルテ番号を削除した
  • 住所・電話番号を削除した
  • 保険者番号を削除した

チェック2: 間接識別子の処理

  • 具体的な日付を「X日」「入院Y日目」などに置き換えた
  • 施設名を削除した
  • 主治医名・担当看護師名を削除した
  • 家族の情報(職業、関係性など)を最小限にした

チェック3: 希少性の評価

  • 希少疾患の場合、臨床経過の詳細度を下げた
  • 年齢 + 疾患 + 経過の組み合わせで特定されないか確認した
  • 必要に応じて、一部の情報を変更した(例: 「東京都」→「関東地方」)

チェック4: 画像データの確認

  • 画像データにDICOMヘッダ(患者情報を含む)が残っていないか確認した
  • スクリーンショットに患者名やIDが映り込んでいないか確認した

チェック5: 最終確認

  • この情報だけで患者を特定できないことを確認した
  • 入力するAIサービスの利用規約を確認した
  • 入力内容が施設のAIポリシーに違反していないことを確認した

匿名化の実践例

匿名化前(入力してはいけない)

山田太郎さん(72歳男性、患者ID: 123456)。2026年2月20日に東京医科大学病院に
急性心筋梗塞で緊急入院。担当は循環器内科の佐藤先生。

匿名化後(入力してよい)

70代男性。急性心筋梗塞で入院。

もう少し詳細が必要な場合

70代男性。突然発症の胸痛で救急搬送。ST上昇型急性心筋梗塞と診断。
緊急PCIを施行。バイタル: 入院時BP 100/70、HR 90、SpO2 96%。
既往: 高血圧、脂質異常症、2型糖尿病。

ポイントは、臨床的に必要な情報は残しつつ、個人を特定できる情報を全て除去することです。


ルール3: AIハルシネーション(幻覚)の見分け方

ハルシネーションとは

AIのハルシネーションとは、AIが事実に基づかない情報を、あたかも正しい事実であるかのように出力する現象のことです。嘘をついているわけではなく、AIの仕組み上、「もっともらしい文章」を生成してしまうのです。

医療の文脈では、以下のようなハルシネーションが特に危険です。


危険なハルシネーションの具体例

例1: 薬剤名の捏造

AI出力: 「急性心不全に対して、ネオカルジオリンの投与が推奨されています。」

問題: 「ネオカルジオリン」という薬剤は実在しません。AIが医学用語を組み合わせて、もっともらしい薬剤名を生成した例です。

対策: 聞いたことのない薬剤名が出てきたら、必ず添付文書データベース(PMDA)で実在を確認してください。


例2: ガイドライン引用の間違い

AI出力: 「日本循環器学会の2024年心不全ガイドラインでは、全てのHFrEF患者にSGLT2阻害薬を第一選択として推奨している(推奨クラスI、エビデンスレベルA)。」

問題: ガイドラインの推奨クラスやエビデンスレベルが正確でない場合があります。また、ガイドラインの「年度」を間違える(2023年のガイドラインを2024年と表記する等)ことも頻繁にあります。

対策: ガイドラインの内容を引用する場合は、必ず原文(PDF)にアクセスして確認してください。


例3: 論文の捏造

AI出力: 「Smith et al. (Lancet, 2024)の大規模RCTでは、3,500人を対象に...」

問題: この論文は実在しない場合があります。AIは著者名、ジャーナル名、年度、対象者数を「もっともらしく」生成する能力があります。

対策: AIが提示した論文は、必ずPubMed (https://pubmed.ncbi.nlm.nih.gov/) で検索し、実在を確認してください。


例4: 用量の間違い

AI出力: 「アドレナリン(エピネフリン)のアナフィラキシーへの投与量は、成人で0.5mg(1:1000)筋注です。」

問題: この場合は正しい用量ですが、AIは時に0.5mgを5mgと間違えたり、投与経路を間違えたりします。特に体重換算が必要な小児の用量は間違いやすい傾向があります。

対策: 薬剤の用量は、必ず添付文書またはUpToDateなどの信頼できるソースで確認してください。特に、致死的な結果につながりうる薬剤(アドレナリン、カリウム製剤、ヘパリンなど)は絶対にAIの出力を鵜呑みにしないでください。


例5: 検査基準値の間違い

AI出力: 「BNPの基準値は100 pg/mL以下です。」

問題: BNPの基準値は施設や測定法によって異なりますが、一般的には18.4 pg/mL以下とされています。AIが「切りの良い数値」を出力してしまうことがあります。

対策: 基準値は自施設の基準を参照してください。


ハルシネーションの見分け方チェックリスト

AIの出力を読む時、以下の点に注意してください。

  1. 聞いたことのない薬剤名や疾患名が出てきたら要注意: PMDAやMeSHで確認する
  2. 具体的な数値(用量、基準値、統計値)は必ず裏取りする: 添付文書、UpToDate、PubMedで確認
  3. ガイドラインの推奨クラスやエビデンスレベルは原典で確認する: AIはここを間違えやすい
  4. 論文名、著者名、ジャーナル名、発行年はPubMedで確認する: 実在しない論文を引用しないため
  5. 「自信たっぷりな口調」に騙されない: AIは間違った情報も断定的に述べる
  6. 複数のAIに同じ質問をして矛盾がないか確認する: 矛盾がある場合、少なくとも一方は間違っている

ルール4: AIの出力を裏取りする方法

裏取りの3つのソース

AIが出力した医学情報を確認するための、信頼性の高い情報源を紹介します。

1. 添付文書(PMDA)

URL: https://www.pmda.go.jp/ 確認すべき内容: 薬剤名、適応症、用法用量、禁忌、副作用、相互作用

使い方: PMDAのサイトで「医療用医薬品」→「添付文書検索」から薬剤名を検索。用量や適応がAIの出力と一致するか確認します。

2. UpToDate

確認すべき内容: 疾患の概要、診断基準、治療アルゴリズム、エビデンスの質

使い方: 疾患名や症状名で検索し、Recommendations(推奨事項)の項目を確認。推奨の強さ(Grade)も記載されています。

3. PubMed

URL: https://pubmed.ncbi.nlm.nih.gov/ 確認すべき内容: 論文の実在確認、最新のエビデンス

使い方: AIが提示した論文のタイトルや著者名で検索し、実在を確認。Abstractを読んで数値が一致するか確認します。


プロンプト1: AIの出力の自己検証を依頼する

AIに自分の出力の信頼性を評価させることも、一つの方法です。完全ではありませんが、明らかな間違いを見つけるのに役立ちます。

あなたは医学情報の正確性を検証する専門家です。以下のあなた自身の回答について、
情報の正確性を自己検証してください。

【あなたの回答】
(ここに先ほどのAI出力を貼り付ける)

【検証項目】
1. 薬剤名は実在するか
2. 用法用量は添付文書の記載と一致するか
3. ガイドラインの引用は正確か
4. 論文の引用情報(著者名、ジャーナル名、年)は正確か
5. 統計的数値は合理的か

各項目について「確信度」を High / Medium / Low で評価し、
Lowの項目については「確認すべき情報源」を提示してください。

注意: AIの自己検証は完全ではありません。AIは自分の間違いに気づかないことがあります。最終的な裏取りは、必ず上記の信頼できる情報源で行ってください。


ルール5: 指導医とのAI利用に関するコミュニケーション

「AIに聞いたら指導医に怒られた」事例集

事例1: AIの回答をそのまま治療方針として提案した

状況: 研修医が「ChatGPTによると、この患者にはドブタミンを使うべきだそうです」と指導医に報告した。

指導医の反応: 「AIが言ったから、ではなく、自分で考えた上で提案してほしい。」

教訓: AIの出力をそのまま「根拠」として提示するのは避ける。「鑑別として〇〇を考えたのですが」と自分の思考として述べ、AIは裏方で使う。


事例2: 指導医に聞くべき内容をAIで代替しようとした

状況: 当直中、判断に迷う症例について、指導医に電話する代わりにChatGPTに相談した。結果的に対応が遅れた。

指導医の反応: 「迷ったら電話してほしい。AIは責任を取れない。」

教訓: AIは知識の確認には使えるが、臨床判断の責任はAIには負えない。判断に迷ったら、AIではなく指導医に相談する。


事例3: AI活用を隠していた

状況: 研修医がカンファレンスの準備にAIを活用していたが、そのことを指導医に伝えていなかった。指導医から「準備が早いが、理解が浅い」と指摘された。

指導医の反応: 「AIを使うこと自体は問題ないが、使っていることを隠すのは問題だ。」

教訓: AIの活用は隠すことではない。「AIを使って鑑別の漏れを確認しました」と透明性を持って伝える方が、信頼を得やすい。


指導医へのAI利用の伝え方

推奨する伝え方

「先生、この症例の鑑別を自分で考えた後、AIで漏れがないか確認しました。
その結果、〇〇も考慮すべきだと思いましたが、いかがでしょうか。」
「文献を調べる際にAIで候補を絞り、PubMedで裏取りしました。
〇〇という論文が最も関連性が高いと思います。」

避けるべき伝え方

「ChatGPTがこう言っています。」(AIを根拠にしている)
「AIによると、この治療が最適だそうです。」(自分の判断を放棄している)

ルール6: 施設のAIポリシーの確認方法

なぜ施設のポリシーが重要か

多くの医療機関は、生成AIの利用に関するポリシーを策定しています(または策定中です)。施設のポリシーに違反してAIを使用した場合、懲戒処分の対象になる可能性があります。


確認すべきポイント

1. AIの使用自体が許可されているか

  • 業務時間中のAI利用は許可されているか
  • どのAIサービスが使用可能か(施設が契約しているサービスはあるか)
  • 個人のアカウントでの利用は可能か

2. 入力が禁止されている情報の範囲

  • 患者情報の入力は禁止されているか(匿名化しても不可の施設がある)
  • 施設名の入力は禁止されているか
  • 業務上の情報(会議の内容、施設のプロトコルなど)の入力は禁止されているか

3. 出力の利用に関する制約

  • AIの出力をカルテに記載してよいか
  • AIの出力を患者説明に使用してよいか
  • AIの出力を学会発表や論文に使用してよいか

4. 報告・記録の義務

  • AIを使用した場合、記録に残す必要があるか
  • インシデント(AIの出力に基づく誤判断など)の報告義務はあるか

プロンプト2: 施設のAIポリシーの確認依頼テンプレート

施設にAIポリシーが存在しない場合、またはポリシーを確認したい場合に、上司や医療安全部門に確認する際のテンプレートです。

以下の文面を、医療安全部門への問い合わせメールのテンプレートとして作成してください。

【内容】
- 研修医として、臨床業務の効率化のために生成AI(ChatGPT等)の利用を検討していること
- 施設のAI利用ポリシーの有無と、その内容を確認したいこと
- 特に、以下の点について明確にしたいこと:
  1. 匿名化した患者情報の入力の可否
  2. AIの出力を参考にした場合のカルテ記載の方法
  3. 学会発表や論文執筆でのAI利用の可否

【トーン】
- 丁寧で、AIの安全利用に配慮していることが伝わる文面
- 「勝手に使い始めるのではなく、事前に確認する」姿勢を示す

ルール7: 倫理的配慮

患者の同意

現時点では、多くの施設で「患者情報をAIに入力する際に患者の同意を取る」という明確なルールは確立されていません。しかし、以下の原則は守るべきです。

  1. 匿名化が十分であっても、不必要な情報は入力しない: 必要最小限の情報に留める
  2. 患者にAIの利用を伝えるかどうかは施設の方針に従う: 現時点では義務化されていない施設が多いが、今後変わる可能性がある
  3. AIの出力を患者への説明に直接使用する場合は慎重に: 「AIがこう言っています」と患者に伝えることは、信頼を損なう可能性がある

カルテへの記載

AIを参考にした場合の記載について、現時点での推奨は以下の通りです。

推奨する記載例

Assessment: 急性心不全増悪(HFrEF)
鑑別として肺塞栓症も考慮し、D-dimer測定を追加。
治療計画: フロセミド20mg IV、酸素3L鼻カニュラ
(参考: JCS 2022心不全ガイドラインに準拠)

「AIを参考にした」と明記する必要は現時点ではありませんが、AIの出力をそのままコピーしてカルテに貼り付ける行為は避けてください。カルテの記載は医師の責任で行うものです。

避けるべき記載

Assessment: ChatGPTによると、この症例は急性心不全の可能性が高い。

AIを診断の根拠としてカルテに記載することは、責任の所在が不明確になり、法的にも問題がある可能性があります。


AIに依存しない臨床力の維持

AIは便利なツールですが、依存してしまうと臨床力が育ちません。以下のバランスを意識してください。

AIに任せてよいこと

  • 情報の検索と整理
  • 鑑別診断の漏れチェック(自分で考えた後の検証)
  • 文書のテンプレート作成
  • 統計結果の解釈サポート

自分でやるべきこと

  • 臨床推論のプロセス(仮説生成 → 検証)
  • 身体診察のスキル
  • 患者とのコミュニケーション
  • 最終的な臨床判断
  • チーム内でのディスカッション

プロンプト3: 倫理的チェック

AIを使う場面で倫理的な懸念がある場合、AIにチェックを依頼することもできます。

あなたは医療倫理の専門家です。以下の場面で研修医がAIを使用することについて、
倫理的な観点から評価してください。

【場面】
研修医が、匿名化した患者の症例情報をChatGPTに入力し、鑑別診断の助言を求めた。
その後、AIの出力を参考に、自分で判断した上で治療方針を決定し、指導医に報告した。

【評価してほしい点】
1. 患者のプライバシーは保護されているか
2. 臨床判断の責任の所在は明確か
3. 指導医への報告は適切か
4. 改善すべき点はあるか
5. 同様の場面で推奨される手順

実践チェックリスト: AI使用前の7秒チェック

AIに情報を入力する前に、以下の7項目を頭の中で確認してください(7秒で完了します)。

  1. 個人情報は除去したか? -- 氏名、生年月日、ID、住所は全て削除
  2. 施設名は除去したか? -- 病院名、科名は削除
  3. 希少疾患の場合、十分に匿名化したか? -- 詳細度を下げる
  4. AIの出力を鵜呑みにしない覚悟があるか? -- 必ず裏取りする
  5. この質問は指導医に聞くべきではないか? -- 判断が必要な場合はAIではなく指導医
  6. 施設のAIポリシーに違反していないか? -- 不明なら確認してから
  7. 緊急事態ではないか? -- 緊急時はAIではなく行動

よくある失敗と対策

失敗1: 患者情報の匿名化が不十分だった

事例: 「72歳男性、3月15日に〇〇病院の循環器内科に入院」という情報をAIに入力した。年齢が具体的で、入院日と施設名が含まれていたため、理論的には患者を特定可能だった。

対策:

  • 年齢は「70代」に、日付は「X月」に、施設名は削除する
  • 入力前に5項目の匿名化チェックリストを確認する

失敗2: AIが出力した薬剤用量をそのまま使い、腎機能調整を忘れた

事例: AIが「バンコマイシン1g 12時間ごと」と出力したが、患者はCKD G4だった。腎機能に応じた調整をせずにオーダーし、薬剤師から指摘を受けた。

対策:

  • 薬剤用量は必ず添付文書で確認する
  • 特に腎排泄型の薬剤(バンコマイシン、メロペネム、アミノグリコシド系など)は注意
  • 薬剤部のTDM(Therapeutic Drug Monitoring)を活用する

失敗3: AIが捏造したガイドラインを引用してカンファレンスで恥をかいた

事例: AIが「AHA/ACC 2025 Guidelines for Heart Failure」を引用したが、実際にはそのガイドラインは存在しなかった。カンファレンスで指導医に指摘され、信頼を損ねた。

対策:

  • ガイドラインは必ず発行元のウェブサイトで確認する
  • 年度は特に間違いやすい(AIが最新年度のガイドラインを「予測」して出力することがある)
  • PubMedやガイドライン発行学会のサイトで原典を確認する

失敗4: AIに依存しすぎて、自分で考える力が落ちた

事例: 毎回AIに鑑別診断を出してもらい、自分で考える習慣がなくなった。指導医から「あなたは何を考えたの?」と聞かれた時、答えられなくなった。

対策:

  • AIは「自分で考えた後の検証ツール」として使う
  • 「まず自分で考える → AIで確認する → 違いを分析する」の順序を徹底する
  • 週に1回は「AIなしで」鑑別を考える練習をする

失敗5: 患者の前でAIを使って不信感を招いた

事例: 患者の面前でスマートフォンを取り出し、症状をAIに入力しているところを見られた。患者から「先生は自分で判断できないのですか」と不安を訴えられた。

対策:

  • 患者の前でAIを使う場合は、事前に説明する(「最新の情報を確認しますね」など)
  • ただし、基本的にはAIの使用は患者の面前を避け、別の場所で行う
  • 電子カルテの操作と誤解されないよう配慮する

プロンプト集: 安全なAI利用のテンプレート

プロンプト4: 匿名化サポート

あなたは医療情報管理の専門家です。以下の症例記述から、AIに入力しても安全な
匿名化バージョンを作成してください。

【元の症例記述】
(ここにカルテの記録を貼り付ける。ただし、このプロンプト自体も安全な
環境で使うこと)

【匿名化ルール】
1. 氏名 → 削除
2. 年齢 → 年代(例: 72歳 → 70代)
3. 日付 → 相対的表記(例: 2月20日 → X日、入院3日目)
4. 施設名 → 削除
5. ID番号 → 削除
6. 住所 → 地域名(例: 東京都港区 → 関東地方)のみ必要な場合
7. 家族情報 → 最小限に

注意: このプロンプト自体を使う際も、可能であれば施設内のセキュアな環境(施設が契約しているAIサービスなど)で使用してください。


プロンプト5: ハルシネーション検出の練習

自分のハルシネーション検出能力を鍛えるための練習プロンプトです。

あなたは医学教育の専門家です。以下の医学情報の中に、意図的に3つの間違い
(ハルシネーションの模擬)を混ぜてください。私がそれを見つける練習をします。

【テーマ】急性心不全の初期治療

【出力形式】
急性心不全の初期治療に関する10項目の医学情報を出力してください。
そのうち3項目は、臨床的に重大な間違いを含めてください。
残り7項目は正確な情報にしてください。

出力後、答え合わせ用に、どの項目が間違いかを別途提示してください
(ただし最初は隠しておいてください)。

プロンプト6: 安全なAI利用の自己評価

あなたは医療安全の専門家です。以下の場面での私のAI利用を評価し、
改善点を指摘してください。

【場面の説明】
(ここに自分がAIを使った場面を記述する)

【評価基準】
1. 個人情報保護: 匿名化は適切だったか
2. 情報の裏取り: AIの出力を検証したか
3. 臨床判断: AIに判断を委ねていないか
4. 透明性: 指導医やチームにAI利用を伝えたか
5. 施設ポリシー: 施設のルールに違反していないか

各項目を5段階で評価し、改善が必要な点について具体的なアドバイスをしてください。

まとめ

AIは医療を変革する可能性を持つ強力なツールです。しかし、「知らなかった」「つい入力してしまった」では済まされないリスクもあります。

本ガイドの7つのルールを守ることで、AIの恩恵を安全に享受できます。

7つのルール:

  1. 入力の境界線を守る: Red Zoneの情報は絶対にAIに入力しない
  2. 匿名化を徹底する: 5項目のチェックリストを毎回確認する
  3. ハルシネーションを見抜く: 薬剤名、用量、論文名、ガイドラインの引用は必ず裏取りする
  4. 裏取りを怠らない: PMDA、UpToDate、PubMedで確認する習慣をつける
  5. 指導医との関係を大切にする: AIを隠し道具にせず、透明性を持って使う
  6. 施設のポリシーを確認する: 不明なら事前に確認する
  7. 倫理的感覚を持つ: AIはツールであり、責任を負うのは常に医師自身

最後に:

このガイドの内容は、AIの技術や法規制の進化に伴い変わる可能性があります。現時点(2026年2月)での推奨事項として読み、定期的に最新の情報をアップデートしてください。

AIを正しく使える医師は、AIを使えない医師よりも強い。 しかし、AIを間違って使う医師は、AIを使わない医師よりも危険です。


更新日: 2026年2月 対象読者: 研修医・若手医師・医学生 所要時間: 30分(通読)

コメント