AI快开门
发现AI的无限可能
首页
工具
模型
模型历史
模型排名
模型价格
话题
简报
搜索
首页
工具
模型
话题
简报
搜索
← 返回话题列表
#
IndexCache
相关话题
2026-03-21
大模型长文本与注意力优化
DeepSeek、清华&智谱团队提出IndexCache等方案,将稀疏注意力prefill阶段提速1.8倍,破解超长上下文O(L²)瓶颈,为大模型落地200K+Token场景铺平道路。
稀疏注意力
长上下文
IndexCache
推理加速
DeepSeek