AI快开门

发现最好的AI工具

2025-09-29

国产小模型逆袭与高效训练

北大-360 的 32B TinyR1、陈丹琦 8B RLMT、LiquidAI Nanos 等轻量模型通过算法创新在安全、推理、边缘端任务上超越千亿级巨兽,验证“小即美”路线,降低算力门槛,推动端侧部署与私有化落地。
2025-05-29

开源生态与高效训练

蚂蚁 Ming-lite-omni 对标 GPT-4o 开源,阿里 PARSCALE 让 1.6B 模型逼近 4.4B 性能且内存降 95%,华为 Pangu Ultra MoE 实现无 GPU 万亿 MoE 训练,低代码+低成本浪潮席卷大模型基础设施。
2025-04-23

国产开源与高效训练

清华、达摩院、复旦等集中开源DyDiT、MAGI-1、Suna等模型与框架,训练成本砍半、推理显存暴降,配合字节长度缩放技术,形成“国产低成本+开源”组合,有望加速中小厂商与科研侧落地,缓解算力卡脖子焦虑。
2025-01-18

国产大模型技术突破

MiniMax-01、书生·浦语3.0、DeepSeek-V3等国产大模型通过线性注意力、数据框架优化、MoE等创新,实现长上下文、高效训练与性能对标国际顶尖模型,标志着国产大模型进入第一梯队。
2024-07-18

模型架构革新与高效训练

微软Q-Sparse、Mistral Mamba、斯坦福DCLM等研究通过稀疏激活、线性推理、数据筛选等机制,在8B甚至更小参数下逼近7B+模型性能,挑战传统Scaling Law,为端侧和低成本训练提供新路径。
2024-04-12

Scaling Law与算力挑战

国内外团队围绕Scaling Law展开深度讨论:无问芯穹提出国产算力突围方案,YC W24六成项目聚焦AI Agent与垂直场景,显示“规模定律”仍是性能核心,但算力瓶颈与资金限制倒逼高效训练创新。