Skip to content

第6章:メモリOS ― 永続レポートで"推論コストを未来から過去へ移す"

— LLMはリアルタイム思考に向かない。だから「考えるべきこと」をすべて過去へ押し込め。

エージェントが壊れる典型パターンは「実行をAIにやらせたとき」だが、 もう一つの根源的な破綻理由がある:

毎回ゼロから推論させること。

これは人間で言えば、 「毎朝起きるたびに記憶喪失になる」 に等しい。

これを解決する構造が メモリOS であり、 最強形態が レポート化(Reportization) だ。


6.1 なぜLLMは"リアルタイム思考"に向かないのか?

理由は3つある。

① 推論はコストが掛かりすぎる

同じ質問に対して毎回:

  • 大規模な思考
  • 統計的推論
  • 長いチェイン

を必要とする。

→ 100ユーザーが同じ質問をしたら100回計算 → コスト爆増 → レイテンシ悪化


② 思考は揺れる(非決定性)

LLMは確率モデルなので、 同じ質問でも:

  • その日の温度
  • 直前の文脈
  • チャンク境界

で結果が変わる。

統計分析や業務分析では"揺れる思考"は致命的だ。


③ "定型パターン"には創発がいらない

ほとんどのデータ分析は 創発 ではなく パターン適用

  • 相関係数
  • 平均・中央値
  • トレンド抽出
  • 異常検知
  • セグメント分割
  • 時系列分析

すべて 決まった式を当てるだけ

→ LLMが考える必要はない → 計算は1回で良い


6.2 レポート化とは何か?(最重要)

「あらゆる分析をバッチで先に走らせ、 その結果をレポートとして永続化する」

この構造がレポート化アーキテクチャだ。

Batch(過去)
   ↓ "全パターン実行"
Reports(永続)
   ↓ "読むだけ"
LLM(現在)

LLMは読むだけなので:

  • 思考ミスがゼロ
  • コストが一定
  • レイテンシが一定
  • 回答が安定
  • 全ユーザーが同じ前提を共有

つまり「揺れないエージェント」が手に入る。


6.3 なぜ"読むだけLLM"が最強なのか?

理由は明確。

① LLMは"読解"が最強だから

LLMの最優性能は:

  • 読む
  • 要約する
  • 構造化する
  • 傾向を解釈する
  • 複数の事実を横断する

→ 読解 × 統合 は創発の真骨頂 → 計算(analysis)は苦手


② 計算を未来から過去へ移送できる

これは時間構造の革命

Before(リアルタイム) → 毎回計算し、時間と金が飛ぶ

After(事前計算) → 一度の計算で全ユーザーが恩恵

未来 → 過去 へコストとリスクを押し込める。


③ レポートは"事実の塊"になる

レポートはただのログではない。

  • 解析済みパターン
  • 時系列の知識
  • 統計的事実
  • 異常の根拠
  • コホートの関係性
  • セグメント別の構造

これらを「冷凍食品」のようにストックできる。


6.4 レポート化の構造(具体実装)

レポートは4階層で設計する。

Layer 1:Raw Data(元データ)

BigQuery・Elasticsearch・DWH ただのデータ


Layer 2:Analytical Batch(事前計算)

  • 特徴量抽出
  • トレンド分布
  • 時系列成分
  • セグメント分類
  • クラスタリング
  • Significant Terms

全パターンを一度に走らせる。


Layer 3:Reports(永続化された分析結果)

固定フォーマット化された"知識"

例:

yaml
report:
  type: "anomaly"
  ts: "2025-01-10"
  segments: [...]
  explanation: ...

Layer 4:LLM Reader(読解層)

LLMは「読む→統合→回答」だけ。


6.5 LLMが"レポート×複数"を横断して創発する

レポート化の強み:

複数のレポートを読み合わせると"新しい洞察"が生まれる

例:

  • トレンド報告
  • 異常検出
  • セグメント別成長
  • クリック率の地域差
  • マーケティング施策の過去効果

これらをLLMが横断すると、 統合知が創発される

つまり:

レポートは"創発の種"。創発は"読解"で起きる。


6.6 レポート化が防ぐ「典型的破綻パターン」

破綻1:分析のたびにロジックが揺れる

→ レポート = 固定された事実 → 揺れゼロ


破綻2:計算コストで詰む

→ 100回 → 1回 → コスト激減


破綻3:初手で間違うと全部ズレる

→ レポートは"正答のキャッシュ" → LLMは読むだけ


破綻4:文脈に分析プロセスが混ざり迷走

→ LLMはプロセスを知らない → 混ざらない


6.7 メモリOSの実装(実務でやるべきこと)

① 全パターン分析リストを作る

  • 数値系
  • カテゴリ系
  • トレンド
  • イベント関連
  • セグメント別
  • 地域別

"質問されそうなすべて"を先回りして作る。


② レポートに統一スキーマを付ける

すべてYAML/JSONで持つ。

必須項目:

  • type(trend/anomaly/segment/...)
  • ts(日付)
  • metrics(主要指標)
  • explanation
  • raw_refs

③ バッチ生成を定期運用にする

Airflow / Vertex Scheduler 毎日・毎週で勝手に更新。


④ LLMには"レポート検索API"だけを渡す

AIに渡すのはこれだけ:

search_reports(type, period, segment)

"読む" 以外の行為を禁止する。


⑤ LLMは複数レポートをまとめて回答する

  • 「時系列」 × 「異常」 × 「セグメント」
  • 「地域差」 × 「成長率」 × 「季節性」
  • 「CTR」 × 「キャンペーン効果」 × 「流入経路」

組み合わせが増えるほど創発する。


6.8 この章のまとめ

  • LLMはリアルタイム分析に不向き
  • ほとんどの分析は"創発ではなく既知パターン"
  • レポート化は「計算を過去に押し込める」構造
  • LLMは読むだけで最強になる(読解 × 統合)
  • 全ユーザーが同じ前提で議論できる
  • 創発は"レポートの横断読解"で起こる
  • メモリOSはエージェントの"安定性の柱"

次章:安定性OS

第7章:安定性OS ― 文脈・時間・実行の分離で"壊れないエージェント"を作る


Last Updated: 2025-12-07

Code: MIT / Content: CC BY-SA 4.0