序章:全体論と還元論 ── エージェント設計に必要なパラダイム転換
Edited by: kishibashi3 Co-developed with: GPT-5.1
AIエージェントをどう設計するべきか。
多くの人がこの問いに対して、まず「仕組み」や「手順」を探そうとする。
- チェインか
- グラフか
- Orchestrator-Workers か
- ReAct か
- LangGraph か
そして「どう組み合わせれば正しく動くのか」という視点から議論が始まる。
しかし実は、この問いそのものに "前提のズレ" がある。
AIエージェントは、従来のソフトウェアのように 「関数とモジュールの組み合わせ」では設計できない。
理由は単純だ。
エージェントとは"手続き"ではなく"認知"で動くシステムである。
従来のソフトウェアは還元論で作られてきた
- 大きな問題を分割して
- 関数に切り出し
- モジュール化し
- 組み合わせることで動かす
これは今でも有効な設計思想だ。
だが、LLMエージェントはまったく違うレイヤーで動く。
エージェントが扱うのは:
- 文脈(いま何の話をしているのか)
- 価値観(どんな基準で判断するのか)
- 役割(どの視点で考えるのか)
- 思考の連続性(過去の判断をどう保持するか)
これらは関数に分解できない。
だから、部分を積み重ねても全体が再構成されない。
つまり 還元論が成り立たない。
この現象は、エージェントを実際に動かした人なら誰でも体験している
- 文脈が混ざると迷走する
- 価値観が揺れると判断がブレる
- 役割が切り替わると推論が破綻する
- コンテキストが断片化するとループする
- タスクを内側で抱えると暴走する
これは「実装ミス」ではなく、 認知システムを還元論で扱っていることが原因 だ。
全体論(Holism)は、分割不可能なものを"全体として扱う"視点である
全体論とは、"すべてを一つの塊として扱え"という話ではない。
そうではなく、
文脈、価値観、役割、思考の連続性は 構造的に分離できないので、 "ひとまとまりの単位(観測点)として扱う必要がある"
という立場である。
人間で例えるなら:
- アーキテクトはアーキテクトとして
- 開発者は開発者として
- レビュアーはレビュアーとして
それぞれ 役割(視点)を固定しない限り 発言も判断もブレる。
エージェントも同じで、 "役割" "価値観" "文脈" はひとかたまりとして扱わないと壊れる。
これを全体論と呼ぶ。
なぜこの章を0章に置くのか
AIエージェントが動かない理由のほとんどは、 実装でもフレームワークでもなく、 パラダイムの不一致 にある。
「関数で切れば見通しが良くなる」 → エージェントでは破綻する
「状態は外に出せばいい」 → 文脈・価値観は出せない
「タスクを細かく分割しよう」 → 認知は分割に耐えない
「モジュールごとに役割を切ろう」 → 役割は"視点"であり、コードと一致しない
こうした "従来の正しさ" を一度横に置かないと、 以降の章で述べる エージェント固有の設計原則 が理解できない。
言い換えれば、
エージェント設計は、技術論の前に「世界の見方」が必要になる。
だからこの章が最初に来る。
この章の結論
エージェントは全体論的なシステムであり、 還元論で扱うと必ず破綻する。
- 文脈は関数にできない
- 価値観はパラメータ化できない
- 役割は仕様書にならない
- 推論の連続性はモジュール化できない
だからこそ、エージェント設計には "従来とは異なるアーキテクチャ思考"が必要になる。
以降の章では、この前提のもとに 実務的な設計原則を順に解説していく。
Last Updated: 2025-12-07