メインコンテンツへスキップ
9 / 33|19分で読めます

AIとの対話の基本 — はじめの一歩

ChatGPTまたはClaudeを開設し、最初の質問を投げ、出力を観察する。この最初の一歩が、すべての基盤となる。

「明日から始める」と決めた人の90%は、明日になると始めない。今、この瞬間に始めた人だけが、変わっている。


この記事を読み終わったら、すぐにやること

読むだけでは何も変わらない。この記事を読み終わったら、今すぐ以下をやる

  1. ChatGPT(無料版)またはClaude(無料版)を開設する(5分)
  2. 最初の質問を3つ投げる(5分)
  3. 出力をスクリーンショットで保存する(1分)

合計11分。今日、これをやるかやらないかで、あなたの未来が決まる。


Day 1: アカウント開設(5分)

選択肢A: ChatGPT(OpenAI)

メリット:

  • 医学論文を含む学習データが豊富
  • プラグイン(有料版)でPubMed連携可能
  • 日本語対応が安定

デメリット:

  • 無料版はGPT-4oではなくGPT-4o-miniに制限される場合がある
  • コンテキストウィンドウがClaudeより短い

開設手順:

  1. https://chat.openai.com/ にアクセス
  2. 「Sign up」をクリック
  3. メールアドレスまたはGoogleアカウントで登録
  4. 認証メールをクリック
  5. 完了(所要時間3分)

選択肢B: Claude(Anthropic)

メリット:

  • 長文の文脈理解に優れる(コンテキストウィンドウ200K tokens)
  • 医療文書の構造化が得意
  • ハルシネーションが比較的少ない

デメリット:

  • 日本語の医学用語で稀にぎこちない表現
  • プラグイン機能が限定的

開設手順:

  1. https://claude.ai/ にアクセス
  2. 「Try Claude」をクリック
  3. メールアドレスで登録
  4. 認証コードを入力
  5. 完了(所要時間3分)

どちらを選ぶべきか

結論: 両方開設して、使い分ける

  • ChatGPT: 鑑別診断、文献検索、一般的な医学知識の質問
  • Claude: 長文のカルテ要約、退院サマリー、複雑な症例の構造化

本シリーズでは両方の例を示す。どちらか一方だけでも訓練は完遂できるが、両方使えると適材適所で効率が上がる。


Day 2-5: 最初の対話(1日10分×4日)

Day 2: 最も簡単な質問から始める

目的: AIが「もっともらしい答え」を返すことを体感する

質問例1(一般知識):

プロンプト

小児の発熱で最も頻度の高い原因疾患を5つ教えてください。

期待される出力:

  1. 上気道感染症(ウイルス性)
  2. 急性中耳炎
  3. 急性胃腸炎
  4. 尿路感染症
  5. 突発性発疹

観察ポイント:

  • 回答は「もっともらしい」か?
  • 年齢別の違いに言及しているか?
  • 頻度の順序は妥当か?

やってはいけないこと: この時点で出力を「正しい」と判断すること

やるべきこと: 「この答えは本当に正しいのか?」と疑問を持つ訓練

Day 3: 少し具体的に質問する

目的: プロンプトの書き方で出力が変わることを体感する

質問例2(条件を追加):

プロンプト

6ヶ月の乳児が39度の発熱を呈しています。 身体所見では特記すべき異常を認めません。 この時点での鑑別診断を、頻度順に5つ挙げてください。

Day 2との違い:

  • 年齢を具体化(6ヶ月)
  • 体温を具体化(39度)
  • 身体所見の情報を追加
  • 「頻度順」を明示

期待される変化:

  • 突発性発疹が上位に来る可能性
  • 尿路感染症の言及
  • 「6ヶ月」という年齢に応じた鑑別

観察ポイント:

  • Day 2の回答と比較して、どう変わったか
  • より具体的な条件を与えると、回答が絞り込まれるか

Day 4: 検証可能な質問をする

目的: AIの出力を検証する習慣をつける

質問例3(ガイドライン参照):

日本小児科学会が推奨する、乳児の尿路感染症のスクリーニング基準を教えてください。
可能であれば、ガイドラインの発行年と該当箇所を示してください。

重要: この質問の答えは、あなたが検証できる

検証手順:

  1. AIの回答をメモする
  2. 実際の日本小児科学会のガイドラインを確認する
  3. 一致しているか、乳ているか、ハルシネーションか判断する

本稿の最重要スキル: 検証する習慣

Day 5: 比較する

目的: 同じ質問でも出力が変わることを確認する

やること: Day 2-4で使った質問を、もう一度同じAIに聞く(新しいチャット画面で)

観察ポイント:

  • 全く同じ回答が返ってくるか?(返ってこない)
  • 内容は一貫しているか?(大筋は一貫、細部は変わる)
  • どの部分が変わり、どの部分が変わらないか?

これが意味すること: AIは「次の単語の確率」で生成している。だから、同じ質問でも微妙に違う答えが返る。つまり、AIに「正解」が格納されているわけではない

同じ質問でも答えが変わる理由

AIは確率的に次の単語を生成するため、同じ質問でも毎回微妙に異なる回答を返します。これはバグではなく、AIの本質的な仕組みです。大筋は一貫していても細部が変わることを理解しておくことが、AIを正しく使う第一歩です。

実践課題(診療で試す)

課題1: 外来で実際に遭遇した症例をAIに聞く

目的: 実際の診療とAIを結びつける

やり方:

  1. 外来で診た患者(1名)の主訴・現病歴・身体所見をメモ
  2. AIに「この患者の鑑別診断を5つ教えてください」と質問
  3. 自分が考えた鑑別診断と比較
  4. AIが挙げなかった鑑別、自分が考えなかった鑑別をリストアップ

振り返りシート:

項目自分AI一致相違
鑑別1
鑑別2
鑑別3

課題2: AIの出力を同僚に見せてみる

目的: AIの出力を客観的に評価する訓練

やり方:

  1. 課題1でAIが出した鑑別診断を印刷
  2. 同僚(または上司)に「この鑑別診断、どう思いますか?」と聞く
  3. AIが出したものだと明かす前に、反応を観察
  4. 「実はAIです」と明かした後の反応を観察

これで分かること:

  • AIの出力は「専門家が見ても妥当」に見える
  • しかし「妥当に見える」と「正しい」は別物
  • 人間の目での検証が不可欠

課題3: ハルシネーション候補を探す

目的: 疑い深くなる訓練

やり方: AIに以下の質問をする:

川崎病の診断基準について、最新のAHA(米国心臓協会)ガイドラインを参照して教えてください。
発行年と、主な変更点も含めて説明してください。

検証:

  1. AIが回答した「発行年」をメモ
  2. 実際のAHAガイドラインの発行年を調べる(Google検索)
  3. 一致しているか確認

もしハルシネーションが見つかったら: おめでとう。あなたは最も重要なスキル「疑う力」を獲得した。

もし一致していたら: 別の質問で試す。「日本小児循環器学会の川崎病ガイドライン」「欧州のガイドライン」など。

重要: ハルシネーションを見つけることが目的ではない。常に検証する習慣をつけることが目的。


到達目標チェックリスト

本稿の内容を実践した後、以下を自己評価する(各項目Yes/No)

技術面

  • ChatGPTまたはClaudeのアカウントを開設した
  • 最低5つの質問を投げた
  • 同じ質問で出力が変わることを確認した
  • 実際の診療で1症例以上試した

理解面

  • AIは「次の単語予測」機械であることを説明できる
  • AIの出力は「もっともらしい」が「正しいとは限らない」と理解している
  • プロンプトの書き方で出力が変わることを体感した

習慣面

  • 毎日10分の学習時間を確保できた(週5日以上)
  • AIの出力を検証する手順を実践した
  • 疑問点を記録した(メモ、スクリーンショット、振り返りシートなど)

態度面

  • AIの出力を盲信しなかった
  • ハルシネーションの可能性を常に考えた
  • 「よく分からない」を認める勇気を持てた

10項目中8項目以上でYes: 順調。次の記事(Ch.3-2)へ進む 6-7項目: やや遅れ。もう2-3日復習してからCh.3-2へ 5項目以下: 立ち止まる。本稿の内容をもう一度繰り返す


よくある質問と回答

Q1: 無料版で十分ですか?有料版(ChatGPT Plus / Claude Pro)が必要ですか?

A: Ch.3の基礎編は無料版で十分です。

有料版のメリットが出るのはCh.4以降:

  • 長文の論文要約(Claude Pro)
  • プラグインでのPubMed連携(ChatGPT Plus)
  • 応答速度の向上

ただし、無料版でも訓練プログラムは完遂できます。 有料版は「あれば便利」であって「必須」ではありません。

Q2: ChatGPTとClaude、どちらが医療に向いていますか?

A: タスク次第です。

タスク推奨理由
鑑別診断ChatGPT医学知識の網羅性
カルテ要約Claude長文理解と構造化
文献検索ChatGPTプラグイン対応
退院サマリーClaude文脈保持能力

両方試して、自分に合う方を選ぶのがベスト。

AIに患者の個人情報(氏名、生年月日、カルテ番号など)を入力することは絶対に避けてください。「60代男性」「6ヶ月の乳児」など一般化した表現のみ使用しましょう。稀少疾患や特異的な所見で個人が特定される可能性がある場合も注意が必要です。

Q3: AIに個人情報(患者情報)を入力しても大丈夫ですか?

A: 絶対にダメです。

基本ルール:

  • 氏名、生年月日、カルテ番号などの個人情報は入力しない
  • 「60代男性」「6ヶ月の乳児」など、一般化した表現のみ
  • 稀少疾患や特異的な所見で個人が特定される可能性がある場合も注意

Ch.5で詳しく学びますが、今の段階では「個人情報は絶対に入力しない」を徹底してください。

Q4: AIが間違った答えを返したらどうすればいいですか?

A: それが正常です。

AIは必ず間違えます。問題は「間違えること」ではなく、「間違いに気づかないこと」です。

間違いを見つけたら:

  1. スクリーンショットを保存
  2. 何が間違っていたかをメモ
  3. なぜ間違いに気づけたかを振り返る(ガイドラインを確認した、上司に聞いた、など)

これが「訓練」です。 間違いを見つけることは、成功体験です。

Q5: 1日10分では足りないように感じます。もっとやってもいいですか?

A: ダメです。10分を死守してください。

理由:

  • 10分を超えると、翌日以降の継続率が下がる
  • 「もっとやりたい」と思うくらいで止めるのが、習慣化の秘訣
  • 物足りなさが、明日への動機になる

例外: 実際の診療での活用(課題1-3)は10分の外でOK。ただし、「学習としての10分」は死守する。


本稿のゴール:疑い深くなる

本稿で身につけるべき最も重要なスキルは、疑い深くなることです。

AIの出力を見て、こう反応できるようになる:

  • 「本当かな?」
  • 「ソースは?」
  • 「他の情報源と一致しているかな?」
  • 「ハルシネーションの可能性は?」

この疑い深さが、訓練なきAI使用と訓練されたAI使用の最大の違いです。

序章で見たJAMAのRCT——訓練なしにAIを使った医師は、AIなしの医師よりも診断精度が低かった。

その理由は、疑わずに信じたからです。

あなたは、89%の危険地帯に入らない。1%の側に立つ。

そのための第一歩が、本稿の実践である。


まとめ

  • 今すぐ始める — ChatGPTまたはClaudeを開設(5分)
  • 最初の質問3つ — 簡単な質問から、段階的に具体化
  • 検証する習慣 — AIの出力を盲信しない。常にソースを確認
  • 実践課題3つ — 外来症例、同僚に見せる、ハルシネーション探し
  • チェックリスト — 10項目中8項目でYesなら次へ

本稿のゴール: AIは便利だが完璧ではない。疑い深くなること。

あなたは、グループAとグループBのどちらに属するのか。

この記事を読み終わったら、今すぐChatGPTまたはClaudeを開設してください。

今、始めた人だけが、変わっている。

この章のポイント

  • ChatGPTとClaudeの両方を開設し、タスクに応じて使い分けることで効率が上がる
  • プロンプトの書き方(年齢・体温・所見の具体化)によってAIの出力は大きく変わる
  • AIの出力は「もっともらしい」が「正しい」とは限らない――常に検証する習慣をつける
  • 同じ質問でも毎回異なる回答が返る仕組みを理解し、AIに「正解」が格納されているわけではないと認識する
  • 患者情報は絶対にAIに入力せず、一般化した表現のみを使用する

参考文献

  1. OpenAI. (2025). "ChatGPT User Guide."
  2. Anthropic. (2025). "Claude User Guide."
  3. Patel, S. B. & Lam, K. (2023). "ChatGPT: The Future of Discharge Summaries?" The Lancet Digital Health.