2025-09-06
AI编程与数据效率突破
阿里万亿级代码模型实测超越Claude-4,浙大无标注GUI-RCPO让界面定位自我进化,再加上训练数据重排即可提效的新策略,显示“不堆参数”也能获得性能跃升。
2025-07-17
模型架构效率革命
谷歌DeepMind提出MoR新架构,推理速度翻倍、内存减半,被视作“Transformer杀手”;潜空间推理综述提出无需Token的循环/递归框架,带宽提升2700倍,为大模型效率与规模同时升级提供双轨路径。
2025-06-21
RAG与向量检索效率突破
浙大与阿里团队开源PSP方法,仅改两行代码即可将RAG向量检索效率提升30%,已验证支持文搜文、图搜图、文搜图及十亿级推荐召回,为大规模知识库落地扫清性能瓶颈。
2025-06-19
模型效率与数据优化
谷歌DataRater自动筛除75%低质数据,弗吉尼亚理工LensLLM选型框架降本90%,普林斯顿&Meta线性注意力机制提速15倍,共同指向“更少数据、更低算力、更高性能”的新训练范式。
2025-02-03
Scaling Law再讨论
业界热议“堆参数”边际收益递减,Cameron Wolfe长文指出大模型扩展面临数据与算力瓶颈,呼吁转向高效架构、数据精炼及跨学科方法;同期多项研究聚焦知识蒸馏、高质量数据集构建,预示后预训练时代“精炼+蒸馏”成新主线。
2024-08-20
多模态长视频理解技术突破
阿里mPLUG-Owl3以4秒看完2小时电影,浙大ScanFormer迭代消除视觉冗余刷新指代表达理解,Salesforce开源xGen-MM加码视觉推理,Luma v1.5挑战Sora带来更快更真视频生成,多模态模型正在同时向“看得快、看得细、做得出”三重极限突进。
2024-06-12
端侧推理与效率优化
上交PowerInfer-2让470亿大模型手机端提速29倍,Yandex YaFSDP打破LLM训练效率瓶颈,TiTok用32 token重建图像提速410倍,端侧与训练双重提效,为AI大规模普及扫清算力与能耗障碍。