Skip to content

第1章:AIエージェントの5層構造

— 全てのエージェントは「この構造」でしか動かない

AIエージェントは複雑に見えるが、 実際には 5つの層しか存在しない。

目的も、役割も、ツールも、すべてこの中に収まる。

┌──────────────────────────┐
│ Layer5:行動制御(Human-in-the-Loop / Workflow) │
├──────────────────────────┤
│ Layer4:タスク実行(MCP / API / Tools)        │
├──────────────────────────┤
│ Layer3:文脈制御(Role Memory / 状態保持)      │
├──────────────────────────┤
│ Layer2:推論(LLM: 判断・創発)                 │
├──────────────────────────┤
│ Layer1:入力(Goal / Prompt / Data)            │
└──────────────────────────┘

各レイヤーの役割と責務

Layer1:入力(Input)

  • ユーザーの指示、目標、コンテキスト
  • RAGの検索結果、状態などもここに入る
  • 「何を達成したいのか」を受け取る唯一の入口

ここが曖昧なエージェントは即死 → 目的が揺れるから


Layer2:推論(Reasoning / LLM Core)

  • エージェントの知能本体
  • 文脈を読み、意味を解き、判断を下す
  • 実行はしない。計画しかしない。

よくある間違い: LLMに実行を背負わせる → 壊れる


Layer3:文脈制御(State / Role Memory)

  • 「いま誰として判断するか」を固定する層
  • ペルソナ・価値観・制約を保持
  • 各判断の純度を保つ防波堤

文脈が混ざると人格障害を起こす (チャットボットが急に変なことを言い始めるアレ)


Layer4:タスク実行(Execution / MCP)

  • API呼び出し、DBアクセス、検索、計算など
  • 手続き的複雑性をすべてここに隔離する

言い換えると: LLMは手を汚さない。決めるだけ。


Layer5:行動制御(Workflow / HITL / Sub-Agent)

  • 見張り、調整、脱線防止
  • Human-in-the-Loop
  • LangGraphやAgentEngineの「強制進行」

Devin問題の解決層 AIの判断だけで走らせると無限探索に落ちる


5層で見える「設計の失敗パターン」

壊れ方原因レイヤー典型の症状
意図を理解しないL1目的が曖昧・変更される話が逸れる
L3文脈が保持されない暴走・ループL5
調整者が不在変な実行L4-L2混濁推論と実行が同じ層
低精度L2手順が文脈を汚染-

この構造を理解した瞬間の変化

  • ✔ フレームワークの選択が論理的になる
  • ✔ 破綻した時どこを直せばいいかわかる
  • ✔ 複数エージェントを組むときの摩擦がなくなる
  • ✔ 文脈汚染の検知が可能になる

つまり、「迷い」が消える。


結論

エージェントは魔法ではない。 ただの分業構造だ。

「LLMは考える、APIは動く、人間が止める」—これだけ。


次章予告

次はもっと踏み込む。

第2章:どこまでLLMに任せるか (創発 × 伴走 / 非創発 × 自律 の境界)

ここで 実装に直結する制御理論に入る。


Last Updated: 2025-12-07

Code: MIT / Content: CC BY-SA 4.0