AI快开门

发现最好的AI工具

2024-10-01

开源与国产大模型技术突破

元象发布255B参数MoE模型并全面开源,智源推出中文大模型辩论平台FlagEval Debate,国产万卡集群训练出万亿参数模型,凸显国产方案在多快好省、评测体系及算力自主上的快速迭代与生态开放。
2024-09-16

国产大模型MoE开源里程碑

元象发布国内最大开源MoE模型XVERSE-MoE-A36B,总参数255B、激活36B,训练时间降30%、推理速度翻倍,无条件免费商用,性能在多项权威评测中超越同级Dense与MoE模型,为中小企业和研究者提供低成本大模型基座。
2024-04-11

国产MoE大模型开源潮

元象XVERSE-MoE-A4.2B、Mistral 8×22B等混合专家模型相继开源,以4B级激活参数对标13-70B稠密模型,显著降低推理成本,推动中小企业低成本部署大模型,预示“稀疏架构+开源”将成为国内大模型落地新路径。