2026-05-16

多模态模型效率与架构创新

聚焦模型效率优化与架构创新,MetaCompress实现多轮VQA场景90% Token压缩率且精度不掉,解决视觉Token算力爆炸问题;JEPA世界模型极简复现助力理解自监督表征学习。技术突破为端侧部署与长序列建模提供新思路,平衡性能与计算成本。
2025-10-05

推理效率优化新进展

Meta提出新方法将大模型思维链推理token减少46%,显著降低长链推理成本,为端侧部署和实时应用打开空间。