AI快开门
发现最好的AI工具
首页
分类
模型
模型历史
模型排名
模型价格
话题
简报
搜索
← 返回话题列表
#
树注意力
相关话题
2024-08-13
超长文本与注意力架构突破
树注意力、多-LoRA、非Transformer等新架构将500万token级长文本推理提速8倍,并降低118倍训练成本,标志着大模型基础设施进入“长上下文+低成本”时代,为行业应用打开天花板。
树注意力
长文本
非Transformer
多-LoRA
成本优化