AI快开门
发现最好的AI工具
首页
分类
模型
模型历史
模型排名
模型价格
话题
简报
搜索
← 返回话题列表
#
token效率
相关话题
2025-11-02
长文本高效处理突破
南理工等高校联合提出VIST框架,用“视觉中心化”思路把长文本当图像压缩,内存占用降50%、token用量减56%,在NeurIPS 2025获选。该方法为长文档理解、法律/医疗文本处理等高价值场景提供可扩展、低成本的全新技术路线。
长文本
视觉压缩
token效率
NeurIPS
低成本推理
2024-04-14
低成本大模型训练新范式
MIT以10万美元训出Llama-2级模型,谷歌提出“无限上下文Transformer”,Rho-1、LLoCO等研究同步优化token效率与长文本处理,显示大模型正进入“低成本、长上下文、高利用率”的新阶段,降低行业准入门槛。
大模型
训练成本
长上下文
token效率