AI快开门
发现AI的无限可能
首页
工具
模型
模型历史
模型排名
模型价格
话题
简报
搜索
首页
工具
模型
话题
简报
搜索
← 返回话题列表
#
树注意力
相关话题
2024-08-13
超长文本与注意力架构突破
树注意力、多-LoRA、非Transformer等新架构将500万token级长文本推理提速8倍,并降低118倍训练成本,标志着大模型基础设施进入“长上下文+低成本”时代,为行业应用打开天花板。
树注意力
长文本
非Transformer
多-LoRA
成本优化