Files
nuonuo/doc/exp03_consolidation.md
Fam Zheng d923aa1e31 NuoNuo: Hippocampal memory module prototype
Hopfield + Hebbian hybrid memory system for LLMs.
Two nights of experiments (16 iterations), validated on LongMemEval (ICLR 2025).

Architecture:
- Single-hop: Two-Stage Hopfield (NN top-20 → softmax settle)
- Multi-hop: Hebbian W matrix with WTA pattern separation
- 64% on LongMemEval (500 questions), retrieval-only, no LLM dependency
- 4ms latency @ 20K memories, ~1GB VRAM

Key findings:
- Hopfield attention solved noise tolerance (20% → 100% vs flat Hebbian)
- WTA pattern separation enables 20K+ capacity
- Multi-hop associative chains (6 hops, CosSim=1.0) — RAG can't do this
- MiniLM-L6 is optimal (discrimination gap > absolute similarity)
- Paraphrase cue augmentation: 55% → 100% on synthetic, 36% → 64% on benchmark
- SNN encoder viable (CosSim 0.99) but not needed for current architecture
2026-04-07 10:37:24 +01:00

75 lines
3.0 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# 实验3Sleep Consolidation
## 实验 3a标准配置下的 Consolidationcode_dim=16384, k=20
**结论Consolidation 基本没有效果。**
因为 pattern separation 太强了:
- 20,000 memories 全部完美召回consolidation 没有优化空间
- 10 晚纯 homeostasis无 replay后仍然 CosSim=1.0
- Replay 只是让 W_norm 膨胀200 → 1644
Noisy replay 对噪声容忍的改善极其微小noise=0.05 时 54%→60%),不值得。
## 实验 3b小网络下的 Consolidationcode_dim=2048, k=50
### 容量边界
| N | CosSim (无 consol) | CosSim (有 consol) |
|---|---|---|
| 500 | 1.0000 | 0.9999 |
| 1000 | 0.9752 | 0.9754 |
| 2000 | 0.8019 | 0.8021 |
**Consolidation 对容量没有帮助。** 干扰来自 pattern 重叠replay 不能解决这个问题。
### 7 天场景(核心发现)⚠️
每天学 200 条新记忆,每晚 consolidate
| 天数 | 总记忆 | Day1 记忆 | 今日记忆 | 全局精度 |
|------|--------|-----------|----------|----------|
| Day 1 | 200 | 1.000 | 1.000 | 100% |
| Night 2 后 | 400 | 0.989 | - | 100% |
| Night 3 后 | 600 | 0.770 | - | 100% |
| Night 5 后 | 1000 | 0.252 | - | 71% |
| Night 7 后 | 1400 | 0.072 | 0.535 | 50% |
**Consolidation 反而加速了旧记忆的遗忘!** 原因:
1. Replay 添加新的 outer product → 增加干扰
2. Selective clear (保留 30%) 意味着旧记忆得不到 replay
3. W_norm 持续增长749 → 4000信噪比恶化
### Homeostasis 对稳定系统无影响
500 pairs + 10 晚 consolidation无论 hf=0.70 还是 1.0CosSim 都 ≥ 0.9998。
WTA 纠错码太强,只要容量够,权重缩放不影响结果。
## 关键结论
### Consolidation 的真正价值(不是我们预期的)
1.**不是防止遗忘**——pattern separation 已经解决了
2.**不是提升容量**——容量由 code_dim/k 决定,不由 W 训练策略决定
3.**是 W_norm 管理**——防止权重无限增长
4.**是选择性遗忘**——当接近容量极限时,主动丢弃不重要的记忆
### 正确的 Consolidation 策略
当前的"replay + homeostasis"策略是错误的。更好的方案:
1. **W 重建法**:保存所有 (cue_code, target_code) 对,每晚从零重建 W = Σ target ⊗ cue
- 保证一致性,不累积误差
- 可以选择性丢弃不重要的 pair实现遗忘曲线
- O(N × code_dim²) 但只需每晚一次
2. **容量监控 + 动态扩展**:监控召回精度,接近极限时扩大 code_dim
3. **实际推荐**:直接用大 code_dim16384+),容量 20K+ 够用几年的对话历史。
Consolidation 简化为:每晚检查 W_norm如果过大就重建。
### 对整体架构的启示
生物海马体需要 consolidation 是因为它容量有限(~数天),需要把记忆转移到皮层。
但在我们的数字系统中,可以直接用更大的 code_dim 来规避容量问题。
Consolidation 退化为一个简单的**存储管理**问题,不需要复杂的 replay 机制。