2026-03-15
底层架构与评测革新
哈工深提出模长感知线性注意力,显存直降92.3%;MIT新算法挑战“后训练RL已死”共识;CVPR 2026论文用视觉Token变化量无损加速VLM 1.87倍;arXiv宣布脱离康奈尔独立并招聘CEO,底层算法、评测与知识分发体系同步洗牌。
2025-10-31
线性注意力架构革新
月之暗面Kimi Linear、智源Emu3.5等相继开源线性注意力或多模态世界模型,KV缓存降低75%、推理速度提升6倍,首次在性能上超越传统全注意力,标志着大模型架构从“平方代价”向“线性扩展”的关键拐点,为端侧部署与实时交互打开新空间。
2025-01-31
端侧扩散模型新架构
线性扩散模型LiT提出极简线性注意力机制,把计算复杂度从O(n²)降至O(n),可在AIPC端侧无显卡环境实时生成512×512图像,为消费级设备普及生成式AI提供可行路径,有望重塑边缘AI芯片与软件栈需求。