Skip to content

第7章:エージェントの安定性設計

― 暴走・ループ・コスト爆発を"構造で"防ぐ

ここまでの議論を振り返ると、エージェントが破綻する原因は、ほぼすべて 文脈管理の失敗 にある。

  • 文脈が混ざる(役割が曖昧)
  • タスクが混ざる(実行まで背負わされる)
  • 時間が混ざる(毎回一から思考・計算)

言い換えると、

文脈・実行・時間の3つをしっかり分ければ、エージェントはほとんど壊れなくなる。

安定性は「機械学習の難しさ」ではなくアーキテクチャの問題だ。


エージェントが不安定になる典型シナリオ

実務でよく見られる失敗から整理する。

  1. タスク指示が曖昧
  2. AIが手探りで計画を立てる
  3. AIが自分で決めた手順を実行する
  4. 実行結果を誤解する
  5. 自分で誤った修正計画を立てる
  6. 無限ループ

「判断 → 実行 → 評価」がすべてAI内部で完結してしまうと、誤解が閉じたループとして増幅される。

強い制約なしに自律型で回すのは危険だ。


安定性をつくる3つのレイヤー

エージェントの安定性は、以下の3層で支えられる。

1️⃣ 文脈の安定(役割の純度)

  • 役割=文脈を分離する
  • 判断基準だけを明記する
  • 推論の外へ踏み出さない制約を入れる

迷いは文脈汚染から始まる。


2️⃣ 実行の安定(タスク外部化)

  • 実行はすべてMCPや外部ワーカーに任せる
  • LLMは"使うべきタスクを選ぶだけ"
  • 実行結果は構造化して返す

AIは決断し、MCPが動く。役割の重ね着をさせない。


3️⃣ 時間の安定(レポート化)

  • 計算は事前バッチで済ませておく
  • LLMは読むだけ
  • コストとレイテンシが固定化される

推論コストを過去に押し込む。質問時には推論させない。


"チェックポイント"は万能ではない

多くのフレームワークは、中間で人間や別エージェントに「承認」を入れることで安定性を確保しようとする。

しかし実は、これは応急処置にすぎない。

  • 文脈が汚染されていれば → チェックしてもブレる
  • タスクをAIが内部に持っていれば → 承認タイミングを逃す
  • 創発が無制御なら → 人間が止めるしかない

承認ワークフローは最後の砦。本質は構造で安定させること。


安定性をチェックする質問(実務用)

エージェントを設計したら、以下のチェックをしてみてほしい。

  • ✓ 判断と実行は完全に分離されているか?
  • ✓ 役割は文脈として一貫しているか?
  • ✓ タスク手順が文脈に紛れ込んでいないか?
  • ✓ データ計算がリアルタイムになっていないか?
  • ✓ 文脈外の判断をしない制約があるか?
  • ✓ 誤解がループにならない構造か?
  • ✓ 全ユーザーが同じ知識にアクセスできるか?

1つでも「No」なら、不安定化リスクが高い。


安定性は"設計思想"で決まる

AIを賢くするのではなく、賢さが「壊れないようにする」。

その鍵はシンプルだ。

  • 文脈を分ける
  • 実行を外に出す
  • 計算を事前に済ませる
  • 過信しない
  • 主語を間違えない

エージェントは人間の代わりではない。人間の判断を増幅する役割だ。


この章のまとめ

  • 不安定化の原因は「文脈・実行・時間」が混ざること
  • 3つを分けることでエージェントはほぼ壊れない
  • チェックポイントは対症療法であり、本質は構造にある
  • 安定性は"知能"ではなく"設計思想"で決まる

次章(最終章)は、これらを統合した「エージェントOS構想」を提示する。


Last Updated: 2025-12-04

Code: MIT / Content: CC BY-SA 4.0