コンテキスト管理の課題
AIモデルはコンテキストウィンドウを通じて会話履歴を理解します。コンテキストが長いほどAIの回答は一貫性がありますが、Token消費も増加します。OpenClawは品質とコストのバランスを取るための複数の戦略を提供しています。
コンテキスト戦略
スライディングウィンドウ
最新のN回の会話を保持し、古い履歴を破棄します。
スマートトリム
関連性に基づいてコンテキストを保持します。
サマリーモード
会話が閾値を超えた後に自動的に要約を生成します。
ハイブリッドモード
{
"sessions": {
"contextStrategy": "hybrid",
"phases": [
{"maxMessages": 10, "strategy": "full"},
{"maxMessages": 30, "strategy": "smart-trim"},
{"maxMessages": 999, "strategy": "summary"}
]
}
}
ベクトルメモリとの連携
長期情報をベクトルメモリに保存し、コンテキストから解放します。
チャンネルごとのカスタマイズ
{
"channels": {
"telegram-main": {
"session": {
"maxHistory": 30,
"contextStrategy": "hybrid"
}
},
"whatsapp-quick": {
"session": {
"maxHistory": 5,
"contextStrategy": "sliding-window"
}
}
}
}
まとめ
コンテキスト管理はOpenClawのパフォーマンスとコスト最適化の重要なポイントです。シーンに応じて適切な戦略を選択し、ベクトルメモリと組み合わせることで、優れた会話体験を維持しながらToken消費を効果的に制御できます。