LLM のコンテキストが長くなるほど、先に与えた指示やファイル内容の想起(recall)精度が徐々に劣化していく現象。大容量コンテキスト(数十万〜1M トークン)を持つモデルでも、トークン上限まで使い切ると初期の指示を忘れたり誤引用したりする。
概要
Claude Opus 4.7 のように 1M トークンの context window を持つモデルであっても、Anthropic 公式ガイダンスは「上限まで使い切ることは非推奨」としている。コンテキストは広さと密度のトレードオフで、密度が下がると attention budget が希薄化し、古い情報の想起が不安定になる。
主な兆候
以下のいずれかが見られたら Context Rot の初期症状と判断する。
| 兆候 | 例 |
|---|---|
| 直前の指示を忘れる | 「さっき伝えた前提を踏まえて」に反応できない |
| Read 済みファイルの内容を誤引用する | 実在しない行番号・関数名を挙げる |
| タスクリストの項番取り違え | 3 番目のタスクを 2 番目と混同する |
| 曖昧な参照先 | 「先ほどの〜」「例の〜」が別物を指す |
対策
- Evidence over Claims — 記憶で答えず Read / Grep で毎回裏取り
- 前倒しの compact — 500K トークンを超えたら
/compactで要約 - セッション分離 — 700K を超えたら新規セッションに移行(
/resumeで復元) - 揮発情報を冒頭に置かない — 現在時刻や進捗を会話冒頭に貼ると prompt cache prefix が毎ターン変わり、結果的に文脈の再構築コストが増える
運用閾値の例
| 消費トークン | アクション |
|---|---|
| 〜200K | 通常運用 |
| 200K〜500K | recall 兆候を監視 |
| 500K〜 | compact 必須 |
| 700K〜 | 新規セッション推奨 |
関連記事
- Claude Code 7層ハーネスエンジニアリング — Context Rot 検知と 7 層ハーネスによる対策の全体像
- コンテキスト設計編 — strategic-compact による compact タイミングと Context Rot 対策