第1章:AIエージェントの5層構造
— 全てのエージェントは「この構造」でしか動かない
AIエージェントは複雑に見えるが、 実際には 5つの層しか存在しない。
目的も、役割も、ツールも、すべてこの中に収まる。
┌──────────────────────────┐
│ Layer5:行動制御(Human-in-the-Loop / Workflow) │
├──────────────────────────┤
│ Layer4:タスク実行(MCP / API / Tools) │
├──────────────────────────┤
│ Layer3:文脈制御(Role Memory / 状態保持) │
├──────────────────────────┤
│ Layer2:推論(LLM: 判断・創発) │
├──────────────────────────┤
│ Layer1:入力(Goal / Prompt / Data) │
└──────────────────────────┘各レイヤーの役割と責務
Layer1:入力(Input)
- ユーザーの指示、目標、コンテキスト
- RAGの検索結果、状態などもここに入る
- 「何を達成したいのか」を受け取る唯一の入口
ここが曖昧なエージェントは即死 → 目的が揺れるから
Layer2:推論(Reasoning / LLM Core)
- エージェントの知能本体
- 文脈を読み、意味を解き、判断を下す
- 実行はしない。計画しかしない。
よくある間違い: LLMに実行を背負わせる → 壊れる
Layer3:文脈制御(State / Role Memory)
- 「いま誰として判断するか」を固定する層
- ペルソナ・価値観・制約を保持
- 各判断の純度を保つ防波堤
文脈が混ざると人格障害を起こす (チャットボットが急に変なことを言い始めるアレ)
Layer4:タスク実行(Execution / MCP)
- API呼び出し、DBアクセス、検索、計算など
- 手続き的複雑性をすべてここに隔離する
言い換えると: LLMは手を汚さない。決めるだけ。
Layer5:行動制御(Workflow / HITL / Sub-Agent)
- 見張り、調整、脱線防止
- Human-in-the-Loop
- LangGraphやAgentEngineの「強制進行」
Devin問題の解決層 AIの判断だけで走らせると無限探索に落ちる
5層で見える「設計の失敗パターン」
| 壊れ方 | 原因 | レイヤー | 典型の症状 |
|---|---|---|---|
| 意図を理解しない | L1 | 目的が曖昧・変更される | 話が逸れる |
| L3 | 文脈が保持されない | 暴走・ループ | L5 |
| 調整者が不在 | 変な実行 | L4-L2混濁 | 推論と実行が同じ層 |
| 低精度 | L2 | 手順が文脈を汚染 | - |
この構造を理解した瞬間の変化
- ✔ フレームワークの選択が論理的になる
- ✔ 破綻した時どこを直せばいいかわかる
- ✔ 複数エージェントを組むときの摩擦がなくなる
- ✔ 文脈汚染の検知が可能になる
つまり、「迷い」が消える。
結論
エージェントは魔法ではない。 ただの分業構造だ。
「LLMは考える、APIは動く、人間が止める」—これだけ。
次章予告
次はもっと踏み込む。
第2章:どこまでLLMに任せるか (創発 × 伴走 / 非創発 × 自律 の境界)
ここで 実装に直結する制御理論に入る。
Last Updated: 2025-12-07