AI快开门
发现AI的无限可能
首页
工具
模型
模型历史
模型排名
模型价格
话题
简报
搜索
首页
工具
模型
话题
简报
搜索
← 返回话题列表
#
MetaCompress
相关话题
2026-05-16
多模态模型效率与架构创新
聚焦模型效率优化与架构创新,MetaCompress实现多轮VQA场景90% Token压缩率且精度不掉,解决视觉Token算力爆炸问题;JEPA世界模型极简复现助力理解自监督表征学习。技术突破为端侧部署与长序列建模提供新思路,平衡性能与计算成本。
Token压缩
MetaCompress
JEPA
多模态
模型效率