Skip to content

序章:全体論と還元論 ── エージェント設計に必要なパラダイム転換

Edited by: kishibashi3 Co-developed with: GPT-5.1


AIエージェントをどう設計するべきか。

多くの人がこの問いに対して、まず「仕組み」や「手順」を探そうとする。

  • チェインか
  • グラフか
  • Orchestrator-Workers か
  • ReAct か
  • LangGraph か

そして「どう組み合わせれば正しく動くのか」という視点から議論が始まる。

しかし実は、この問いそのものに "前提のズレ" がある。

AIエージェントは、従来のソフトウェアのように 「関数とモジュールの組み合わせ」では設計できない。

理由は単純だ。

エージェントとは"手続き"ではなく"認知"で動くシステムである。


従来のソフトウェアは還元論で作られてきた

  • 大きな問題を分割して
  • 関数に切り出し
  • モジュール化し
  • 組み合わせることで動かす

これは今でも有効な設計思想だ。

だが、LLMエージェントはまったく違うレイヤーで動く。


エージェントが扱うのは:

  • 文脈(いま何の話をしているのか)
  • 価値観(どんな基準で判断するのか)
  • 役割(どの視点で考えるのか)
  • 思考の連続性(過去の判断をどう保持するか)

これらは関数に分解できない。

だから、部分を積み重ねても全体が再構成されない。

つまり 還元論が成り立たない


この現象は、エージェントを実際に動かした人なら誰でも体験している

  • 文脈が混ざると迷走する
  • 価値観が揺れると判断がブレる
  • 役割が切り替わると推論が破綻する
  • コンテキストが断片化するとループする
  • タスクを内側で抱えると暴走する

これは「実装ミス」ではなく、 認知システムを還元論で扱っていることが原因 だ。


全体論(Holism)は、分割不可能なものを"全体として扱う"視点である

全体論とは、"すべてを一つの塊として扱え"という話ではない。

そうではなく、

文脈、価値観、役割、思考の連続性は 構造的に分離できないので、 "ひとまとまりの単位(観測点)として扱う必要がある"

という立場である。


人間で例えるなら:

  • アーキテクトはアーキテクトとして
  • 開発者は開発者として
  • レビュアーはレビュアーとして

それぞれ 役割(視点)を固定しない限り 発言も判断もブレる。

エージェントも同じで、 "役割" "価値観" "文脈" はひとかたまりとして扱わないと壊れる。

これを全体論と呼ぶ。


なぜこの章を0章に置くのか

AIエージェントが動かない理由のほとんどは、 実装でもフレームワークでもなく、 パラダイムの不一致 にある。

  • 「関数で切れば見通しが良くなる」 → エージェントでは破綻する

  • 「状態は外に出せばいい」 → 文脈・価値観は出せない

  • 「タスクを細かく分割しよう」 → 認知は分割に耐えない

  • 「モジュールごとに役割を切ろう」 → 役割は"視点"であり、コードと一致しない

こうした "従来の正しさ" を一度横に置かないと、 以降の章で述べる エージェント固有の設計原則 が理解できない。

言い換えれば、

エージェント設計は、技術論の前に「世界の見方」が必要になる。

だからこの章が最初に来る。


この章の結論

エージェントは全体論的なシステムであり、 還元論で扱うと必ず破綻する。

  • 文脈は関数にできない
  • 価値観はパラメータ化できない
  • 役割は仕様書にならない
  • 推論の連続性はモジュール化できない

だからこそ、エージェント設計には "従来とは異なるアーキテクチャ思考"が必要になる。

以降の章では、この前提のもとに 実務的な設計原則を順に解説していく。


次へ: 第1章:エージェント設計とは何か(概論)


Last Updated: 2025-12-07

Code: MIT / Content: CC BY-SA 4.0