Agent: 深度研究 (
deep-researcher)
Confidence: 51%
Cost: $0.7388
Duration: 3m 9s
Task ID:ff783100-58ff-447a-af15-f4638c2b73ac
★ Insight ─────────────────────────────────────
研究發現的三大洞察:
記憶壓縮的兩大流派已成形:靜態壓縮派(Mastra OM)追求上下文穩定性和 prompt cache 命中率;動態組裝派(GAM)追求按需編譯、避免過早壓縮。兩者的共同點是「雙 agent 架構」——分離觀察/壓縮與檢索/組裝的職責。
OM 證明了「不需要 RAG 也能 SOTA」:這對我們專案意義重大。我們的
narrative.jsonlappend-only 架構與 OM 的理念高度契合,不需要引入向量資料庫這個額外複雜度,就能實現高效記憶管理。Prompt cache 是隱藏的經濟武器:OM 的上下文穩定性讓 prompt prefix 不變,cache 命中率極高。主流 API 供應商對 cached prompt 的定價是 uncached 的 1/4 到 1/10。這意味著記憶架構的設計直接影響 API 帳單。
─────────────────────────────────────────────────
研究報告已完成並存入 soul/agent-reports/deep-researcher/2026-02-27-memory-compression-strategies-v2.md。
報告摘要
本次研究是 2/20 首次研究的一週後更新,聚焦三大新進展:
Mastra Observational Memory:LongMemEval 94.87% 歷史最高分,已完全開源。三層壓縮(Messages → Observations → Reflections)+ emoji 優先級 + 三重時間錨定,且上下文穩定可 cache。
GAM(General Agentic Memory):JIT 編譯式記憶,分離「記住」與「回憶」,在 448K tokens 上下文中仍維持 90%+ 準確度。
行業收斂趨勢:所有主流方案(OM、GAM、MemGPT、Mem0)都收斂到「分層 + 雙 agent」模式。
對 mybotteam 的具體建議:我們的 narrative.jsonl append-only 架構非常適合採用 OM 的 Observer/Reflector 模式,不需要引入向量資料庫,就能實現高效記憶壓縮。