AI快开门
发现AI的无限可能
首页
工具
模型
模型历史
模型排名
模型价格
话题
简报
搜索
首页
工具
模型
话题
简报
搜索
← 返回话题列表
#
Token压缩
相关话题
2026-05-16
多模态模型效率与架构创新
聚焦模型效率优化与架构创新,MetaCompress实现多轮VQA场景90% Token压缩率且精度不掉,解决视觉Token算力爆炸问题;JEPA世界模型极简复现助力理解自监督表征学习。技术突破为端侧部署与长序列建模提供新思路,平衡性能与计算成本。
Token压缩
MetaCompress
JEPA
多模态
模型效率
2025-10-05
推理效率优化新进展
Meta提出新方法将大模型思维链推理token减少46%,显著降低长链推理成本,为端侧部署和实时应用打开空间。
思维链
推理优化
token压缩
Meta
端侧部署