AI快开门
发现最好的AI工具
首页
分类
模型
模型历史
模型排名
模型价格
话题
简报
搜索
← 返回话题列表
#
稀疏模型
相关话题
2025-12-16
大模型训练范式革新
CMU、Mamba作者等团队提出“压缩即智能”、无预训练76K小模型登ARC-AGI榜三,OpenAI开源99.9%稀疏模型,挑战堆数据、堆算力传统Scaling Law,揭示推理能力可脱离巨量预训练,为低算力、高可解释新路线奠基。
无预训练
压缩即智能
稀疏模型
Scaling Law
可解释性
2024-04-11
国产MoE大模型开源潮
元象XVERSE-MoE-A4.2B、Mistral 8×22B等混合专家模型相继开源,以4B级激活参数对标13-70B稠密模型,显著降低推理成本,推动中小企业低成本部署大模型,预示“稀疏架构+开源”将成为国内大模型落地新路径。
MoE
开源
元象
Mistral
稀疏模型