Files
nuonuo/doc/exp03_consolidation.md
Fam Zheng d923aa1e31 NuoNuo: Hippocampal memory module prototype
Hopfield + Hebbian hybrid memory system for LLMs.
Two nights of experiments (16 iterations), validated on LongMemEval (ICLR 2025).

Architecture:
- Single-hop: Two-Stage Hopfield (NN top-20 → softmax settle)
- Multi-hop: Hebbian W matrix with WTA pattern separation
- 64% on LongMemEval (500 questions), retrieval-only, no LLM dependency
- 4ms latency @ 20K memories, ~1GB VRAM

Key findings:
- Hopfield attention solved noise tolerance (20% → 100% vs flat Hebbian)
- WTA pattern separation enables 20K+ capacity
- Multi-hop associative chains (6 hops, CosSim=1.0) — RAG can't do this
- MiniLM-L6 is optimal (discrimination gap > absolute similarity)
- Paraphrase cue augmentation: 55% → 100% on synthetic, 36% → 64% on benchmark
- SNN encoder viable (CosSim 0.99) but not needed for current architecture
2026-04-07 10:37:24 +01:00

3.0 KiB
Raw Blame History

实验3Sleep Consolidation

实验 3a标准配置下的 Consolidationcode_dim=16384, k=20

结论Consolidation 基本没有效果。

因为 pattern separation 太强了:

  • 20,000 memories 全部完美召回consolidation 没有优化空间
  • 10 晚纯 homeostasis无 replay后仍然 CosSim=1.0
  • Replay 只是让 W_norm 膨胀200 → 1644

Noisy replay 对噪声容忍的改善极其微小noise=0.05 时 54%→60%),不值得。

实验 3b小网络下的 Consolidationcode_dim=2048, k=50

容量边界

N CosSim (无 consol) CosSim (有 consol)
500 1.0000 0.9999
1000 0.9752 0.9754
2000 0.8019 0.8021

Consolidation 对容量没有帮助。 干扰来自 pattern 重叠replay 不能解决这个问题。

7 天场景(核心发现)⚠️

每天学 200 条新记忆,每晚 consolidate

天数 总记忆 Day1 记忆 今日记忆 全局精度
Day 1 200 1.000 1.000 100%
Night 2 后 400 0.989 - 100%
Night 3 后 600 0.770 - 100%
Night 5 后 1000 0.252 - 71%
Night 7 后 1400 0.072 0.535 50%

Consolidation 反而加速了旧记忆的遗忘! 原因:

  1. Replay 添加新的 outer product → 增加干扰
  2. Selective clear (保留 30%) 意味着旧记忆得不到 replay
  3. W_norm 持续增长749 → 4000信噪比恶化

Homeostasis 对稳定系统无影响

500 pairs + 10 晚 consolidation无论 hf=0.70 还是 1.0CosSim 都 ≥ 0.9998。 WTA 纠错码太强,只要容量够,权重缩放不影响结果。

关键结论

Consolidation 的真正价值(不是我们预期的)

  1. 不是防止遗忘——pattern separation 已经解决了
  2. 不是提升容量——容量由 code_dim/k 决定,不由 W 训练策略决定
  3. 是 W_norm 管理——防止权重无限增长
  4. 是选择性遗忘——当接近容量极限时,主动丢弃不重要的记忆

正确的 Consolidation 策略

当前的"replay + homeostasis"策略是错误的。更好的方案:

  1. W 重建法:保存所有 (cue_code, target_code) 对,每晚从零重建 W = Σ target ⊗ cue

    • 保证一致性,不累积误差
    • 可以选择性丢弃不重要的 pair实现遗忘曲线
    • O(N × code_dim²) 但只需每晚一次
  2. 容量监控 + 动态扩展:监控召回精度,接近极限时扩大 code_dim

  3. 实际推荐:直接用大 code_dim16384+),容量 20K+ 够用几年的对话历史。 Consolidation 简化为:每晚检查 W_norm如果过大就重建。

对整体架构的启示

生物海马体需要 consolidation 是因为它容量有限(~数天),需要把记忆转移到皮层。 但在我们的数字系统中,可以直接用更大的 code_dim 来规避容量问题。 Consolidation 退化为一个简单的存储管理问题,不需要复杂的 replay 机制。