CTS-KB

Context Rot

こんてきすとろっと

コンテキストロット コンテキスト劣化
#LLM #コンテキストエンジニアリング #Claude Code #プロンプト設計

LLM のコンテキストが長くなるほど、先に与えた指示やファイル内容の想起(recall)精度が徐々に劣化していく現象。大容量コンテキスト(数十万〜1M トークン)を持つモデルでも、トークン上限まで使い切ると初期の指示を忘れたり誤引用したりする。

概要

Claude Opus 4.7 のように 1M トークンの context window を持つモデルであっても、Anthropic 公式ガイダンスは「上限まで使い切ることは非推奨」としている。コンテキストは広さ密度のトレードオフで、密度が下がると attention budget が希薄化し、古い情報の想起が不安定になる。

主な兆候

以下のいずれかが見られたら Context Rot の初期症状と判断する。

兆候
直前の指示を忘れる「さっき伝えた前提を踏まえて」に反応できない
Read 済みファイルの内容を誤引用する実在しない行番号・関数名を挙げる
タスクリストの項番取り違え3 番目のタスクを 2 番目と混同する
曖昧な参照先「先ほどの〜」「例の〜」が別物を指す

対策

  1. Evidence over Claims — 記憶で答えず Read / Grep で毎回裏取り
  2. 前倒しの compact — 500K トークンを超えたら /compact で要約
  3. セッション分離 — 700K を超えたら新規セッションに移行(/resume で復元)
  4. 揮発情報を冒頭に置かない — 現在時刻や進捗を会話冒頭に貼ると prompt cache prefix が毎ターン変わり、結果的に文脈の再構築コストが増える

運用閾値の例

消費トークンアクション
〜200K通常運用
200K〜500Krecall 兆候を監視
500K〜compact 必須
700K〜新規セッション推奨

関連記事