第7章:エージェントの安定性設計
― 暴走・ループ・コスト爆発を"構造で"防ぐ
ここまでの議論を振り返ると、エージェントが破綻する原因は、ほぼすべて 文脈管理の失敗 にある。
- 文脈が混ざる(役割が曖昧)
- タスクが混ざる(実行まで背負わされる)
- 時間が混ざる(毎回一から思考・計算)
言い換えると、
文脈・実行・時間の3つをしっかり分ければ、エージェントはほとんど壊れなくなる。
安定性は「機械学習の難しさ」ではなくアーキテクチャの問題だ。
エージェントが不安定になる典型シナリオ
実務でよく見られる失敗から整理する。
- タスク指示が曖昧
- AIが手探りで計画を立てる
- AIが自分で決めた手順を実行する
- 実行結果を誤解する
- 自分で誤った修正計画を立てる
- 無限ループ
「判断 → 実行 → 評価」がすべてAI内部で完結してしまうと、誤解が閉じたループとして増幅される。
強い制約なしに自律型で回すのは危険だ。
安定性をつくる3つのレイヤー
エージェントの安定性は、以下の3層で支えられる。
1️⃣ 文脈の安定(役割の純度)
- 役割=文脈を分離する
- 判断基準だけを明記する
- 推論の外へ踏み出さない制約を入れる
迷いは文脈汚染から始まる。
2️⃣ 実行の安定(タスク外部化)
- 実行はすべてMCPや外部ワーカーに任せる
- LLMは"使うべきタスクを選ぶだけ"
- 実行結果は構造化して返す
AIは決断し、MCPが動く。役割の重ね着をさせない。
3️⃣ 時間の安定(レポート化)
- 計算は事前バッチで済ませておく
- LLMは読むだけ
- コストとレイテンシが固定化される
推論コストを過去に押し込む。質問時には推論させない。
"チェックポイント"は万能ではない
多くのフレームワークは、中間で人間や別エージェントに「承認」を入れることで安定性を確保しようとする。
しかし実は、これは応急処置にすぎない。
- 文脈が汚染されていれば → チェックしてもブレる
- タスクをAIが内部に持っていれば → 承認タイミングを逃す
- 創発が無制御なら → 人間が止めるしかない
承認ワークフローは最後の砦。本質は構造で安定させること。
安定性をチェックする質問(実務用)
エージェントを設計したら、以下のチェックをしてみてほしい。
- ✓ 判断と実行は完全に分離されているか?
- ✓ 役割は文脈として一貫しているか?
- ✓ タスク手順が文脈に紛れ込んでいないか?
- ✓ データ計算がリアルタイムになっていないか?
- ✓ 文脈外の判断をしない制約があるか?
- ✓ 誤解がループにならない構造か?
- ✓ 全ユーザーが同じ知識にアクセスできるか?
1つでも「No」なら、不安定化リスクが高い。
安定性は"設計思想"で決まる
AIを賢くするのではなく、賢さが「壊れないようにする」。
その鍵はシンプルだ。
- 文脈を分ける
- 実行を外に出す
- 計算を事前に済ませる
- 過信しない
- 主語を間違えない
エージェントは人間の代わりではない。人間の判断を増幅する役割だ。
この章のまとめ
- 不安定化の原因は「文脈・実行・時間」が混ざること
- 3つを分けることでエージェントはほぼ壊れない
- チェックポイントは対症療法であり、本質は構造にある
- 安定性は"知能"ではなく"設計思想"で決まる
次章(最終章)は、これらを統合した「エージェントOS構想」を提示する。
Last Updated: 2025-12-04