AIの分類と種類
はじめに — なぜ分類が重要なのか
「AI」と一言で言っても、1972年のMYCIN(600個のif-thenルール)と2024年のGPT-4(1.8兆パラメータとも推定される巨大ニューラルネットワーク)は、根本的に異なる技術です。AIを正確に分類できることは、「このAIは何ができて何ができないのか」を判断する基礎になります。
アプローチによる分類 — 3つの世代
ルールベースAI(第1世代)
人間が「if A then B」のルールを明示的に定義するアプローチ。
MYCIN — ルールベースAIの到達点と限界
仕組み: スタンフォード大学で開発された約600の「if-then」ルールに基づく感染症診断システム。「培養結果がグラム陰性 AND 形状が桿菌 AND 患者が免疫不全 → 緑膿菌の疑い」のような推論を連鎖的に実行。
成果: 血液感染症の診断で65%の精度を達成。非専門医(50%以下)を上回ったが、感染症専門医(約80%)には及ばなかった。
限界: 新しい知見が得られるたびに、専門家がルールを手動で追加・修正する必要があった。暗黙知(経験に基づく直感)をルール化することは不可能。結局、臨床現場では実用化されなかった。
| 特徴 | 内容 |
|---|---|
| 動作原理 | 人間が定義したルールに基づく論理推論 |
| 長所 | 判断根拠が明確(説明可能性が高い)、少数の専門知識で構築可能 |
| 短所 | ルールの追加・更新が困難、暗黙知の扱いが不可能、スケールしない |
| 医療での例 | 初期の診断支援システム、薬物相互作用チェッカー |
機械学習(第2世代)
データからパターンを自動的に学習するアプローチ。ルールを人間が書くのではなく、AIがデータから発見する。
ルールベース vs 機械学習 — 肺炎診断の場合
ルールベース: 「体温38度以上 AND 咳あり AND CRP上昇 → 肺炎の疑い」。ルールを人間が書く。
機械学習: 10万件の患者データ(体温、症状、検査値、画像、最終診断)を学習させ、AIが自動的に「どの特徴の組み合わせが肺炎を示すか」のパターンを発見する。人間が気づかない微妙な相関も検出可能。
→ 決定的な違い: 機械学習は「人間が見落とすパターン」も発見できるが、「なぜそう判断したか」の説明が難しい(ブラックボックス問題)。
深層学習(第3世代)
機械学習の一種で、多層のニューラルネットワーク(ディープニューラルネットワーク)を使用する。2012年のImageNetでの成功以降、AI革命の中心技術。
Google Brain — 猫を認識した深層学習の衝撃
背景: 2012年、GoogleのJeff DeanとAndrew NgのチームがYouTubeの動画から1,000万枚の画像を使い、教師なしの深層学習モデルを訓練。
成果: 人間が「猫とは何か」を教えることなく、AIが自動的に「猫」の概念を獲得。従来の機械学習では、人間が「耳の形」「ひげの有無」などの特徴を手動で定義する必要があったが、深層学習はデータから特徴を自動抽出した。
医療への意義: この「特徴量の自動抽出」が医療画像AIの基盤。病理画像やX線画像でも、人間が定義できない微妙なパターンをAIが自動的に学習する。
| 世代 | 代表技術 | データ量 | 特徴抽出 | 医療AI例 |
|---|---|---|---|---|
| 第1世代 | ルールベース | 不要 | 人間が定義 | MYCIN(感染症) |
| 第2世代 | 機械学習 | 中規模 | 人間が設計 | ロジスティック回帰による予後予測 |
| 第3世代 | 深層学習 | 大規模 | 自動抽出 | EIRL(脳MRI)、EndoBRAIN(内視鏡) |
学習方法による分類 — 3つのパラダイム
教師あり学習(Supervised Learning)
正解ラベル付きデータから学習する方法。医療AIで最も広く使われている。
| タスク | 内容 | 医療での例 |
|---|---|---|
| 分類 | データをカテゴリに割り当て | X線画像を「正常」「肺炎」「結核」に分類 |
| 回帰 | 連続値を予測 | 患者データから入院日数を予測 |
教師なし学習(Unsupervised Learning)
正解ラベルなしのデータから隠れた構造を発見する方法。
| タスク | 内容 | 医療での例 |
|---|---|---|
| クラスタリング | データを自然なグループに分類 | 糖尿病患者のサブタイプ発見 |
| 異常検知 | 通常パターンからの逸脱を検出 | 心電図の異常波形検出 |
| 次元削減 | 高次元データを低次元に圧縮 | ゲノムデータの可視化 |
強化学習(Reinforcement Learning)
試行錯誤を通じて、報酬を最大化する行動を学習する方法。
AlphaGo — 強化学習が人間の直感を超えた
背景: Google DeepMindのAlphaGoは、プロ棋士の棋譜で教師あり学習した後、自己対局による強化学習で能力を飛躍的に向上させた。
衝撃: 2016年3月、世界チャンピオン李世ドルに4勝1敗で勝利。第2局の「37手目」は、人間のプロ棋士が「1万局に1回も打たない」と評した革新的な一手で、AIが人間の常識を超えた判断に到達できることを示した。
医療への波及: 強化学習は、放射線治療計画の最適化や、敗血症の治療戦略最適化の研究に応用されている。ただし、患者の安全が最優先のため、実臨床での適用は慎重に進められている。
出力による分類 — 識別AI vs 生成AI
識別AI vs 生成AI — 何が違うのか
識別AI(Discriminative AI): 入力データを分類・判定する。「この画像は肺炎か正常か」を判断。 → 医療例: EIRL(脳動脈瘤検出)、EndoBRAIN(大腸ポリープ鑑別)、nodoca(インフルエンザ診断)
生成AI(Generative AI): 新しいデータを生成する。テキスト、画像、コードなどを作り出す。 → 医療例: ChatGPT/Claude(診断書ドラフト、文献要約)、Med-PaLM(医学質問応答)
決定的な違い: 識別AIは「AかBか」を判定する。生成AIは「Aに基づいて新しいCを作る」。2022年のChatGPT以降、生成AIが爆発的に普及したが、医療機器として承認されているAI(EIRL、EndoBRAIN、nodoca)は全て識別AI。
医療画像解析における深層学習の包括的サーベイ。分類・検出・セグメンテーションの手法を網羅
まとめ
AIの分類は「アプローチ(ルールベース→機械学習→深層学習)」「学習方法(教師あり/なし/強化学習)」「出力(識別/生成)」の3軸で整理できます。現在の医療AIは主に深層学習ベースの識別AIであり、教師あり学習で大量のラベル付き医療データから訓練されています。生成AIは文書作成支援で急速に普及していますが、診断に使う医療機器としてはまだ承認されていません。
次のレッスンでは、AIの中核技術である機械学習の仕組みを詳しく学びます。
明日のアクション
普段使用しているAIツールを「識別AI」と「生成AI」に分類してみましょう。画像診断支援は識別AI、ChatGPT/Claudeは生成AIです。それぞれの「できること」と「できないこと」を整理することで、AIの分類体系の実践的な理解が深まります。