Skip to content

第2章:文脈とペルソナ ― 役割の本質

― LLMは「役割の切り替え」を持たない。だから構造が要る。

AIエージェントの話をすると、よく「アーキテクト役・開発者役・レビュアー役を分けた方がいい」という説明を見かける。

これは半分正しく、半分間違っている。

正しいのは役割を分けた方が、システムは安定する。

間違っているのは役割を「タスク分割」だと思ってしまうこと。

タスクではなく文脈。役割とは「視点」「判断基準」「価値観」の固まりだ。


LLMに「役割切り替え機構」は存在しない

人間は、状況に応じて自然に自分を切り替える。

  • 会議では論理的
  • 家では感情的
  • 仕事では慎重
  • 趣味では大胆

この"切り替え"は、人間が持つ高度なメタ認知の機能だ。

だが、LLMにはこのスイッチが存在しない。文脈を切り替える回路を持っていない。あるのは 1つのコンテキストに対する1つの推論 だけ。

だから、ひとつのエージェントに複数の役割を書き込むとこうなる:

  1. いまの自分がどの役割なのか分からない
  2. 言っていることが揺れ始める
  3. 判断基準が曖昧になる
  4. 文脈が混ざり、推論が不安定化する

特に「アーキテクトとしての厳しさ」と「実装者としての柔軟さ」を同時に混ぜると、判断がぶれ、結論が迷子になりやすい。


ペルソナとは"文脈のパッケージ"である

この問題を避けるために必要なのは、ペルソナを役割の人格ではなく、文脈の塊として定義すること。

つまり、

  • 視点
  • 判断基準
  • 優先順位
  • 許容範囲
  • リスク感度
  • 成功条件

これらを一組にして「ひとつの文脈」として扱う。

ペルソナ=文脈

  • 文脈=判断基準のセット
  • したがって、ペルソナ=判断の単位

人格ロールプレイではない。文脈のスコープを区切るための構造だ。


文脈を混ぜると、AIは曖昧になる

― だから「分割=メモリの分離」が本質になる

LLMは巨大なメモリに文章を読み込み、そのメモリを「ひとつの状況」として解釈する。

そのメモリの中にこんな情報が一緒に入っているとどうなるか:

  • "厳密なアーキテクトの基準"
  • "スピード優先の実装者の基準"
  • "安全性を重視するレビュー基準"

人間なら「いまはどれか」を意識できるが、LLMにはできない。

メモリに混ぜてしまった時点で、もう分離できない。

だから重要なのは、"役割を増やす"ことではなく、役割ごとにメモリを分けること


文脈分離の実際の効果

文脈を分けるだけで、AIの振る舞いは驚くほど安定する。

1. 判断が一貫する

1つの文脈だけを参照して判断するため、迷いがなくなる。

2. 出力の揺れが減る

以前の判断基準と矛盾しにくくなる。

3. 役割間の比較がしやすくなる

複数の役割を「横に並べる」ことができるようになる。

4. 暴走しにくくなる

文脈の範囲外に踏み込まないため、制御性が上がる。

5. チーム構造に近い

"複数の視点で検討する"ことが自然に起きる。

要するに、文脈を分けると、システムが人間のチームのように安定する。


文脈が分かれると、タスクは自然に外側に出る

文脈(判断基準)の整理が進むと、"実行の手順"を書きたくなくなる

理由は単純で、判断と実行の混在が文脈汚染の原因だから。

タスクを「どうやるか」まで書き始めた瞬間、文脈は濁る。

だから、次章のテーマにつながる。

タスクは外に出した方がいい。良いエージェントは「判断しかしない」。

文脈を整えれば整えるほど、手順・実装・API呼び出しはすべて外に押し出されていく。

文脈の純度を守ることが、エージェント設計の安定性に直結する。


この章のまとめ

  1. LLMは「役割切り替え」を持たない
  2. ひとつの文脈でひとつの判断しかできない
  3. だから役割=ペルソナ=文脈として分離する必要がある
  4. 文脈が混ざると推論は必ず揺れる
  5. 文脈分離は"メモリの分割"である
  6. 文脈が整うと、タスク実行は自然に外へ押し出される

次章(第3章)では、この流れのまま:

判断(文脈)と実行(タスク)をどう外部化するかを扱う。


Last Updated: 2025-12-04

Code: MIT / Content: CC BY-SA 4.0