AI快开门

发现最好的AI工具

2024-08-13

超长文本与注意力架构突破

树注意力、多-LoRA、非Transformer等新架构将500万token级长文本推理提速8倍,并降低118倍训练成本,标志着大模型基础设施进入“长上下文+低成本”时代,为行业应用打开天花板。