2026-03-21

大模型长文本与注意力优化

DeepSeek、清华&智谱团队提出IndexCache等方案,将稀疏注意力prefill阶段提速1.8倍,破解超长上下文O(L²)瓶颈,为大模型落地200K+Token场景铺平道路。