2024-10-01
开源与国产大模型技术突破
元象发布255B参数MoE模型并全面开源,智源推出中文大模型辩论平台FlagEval Debate,国产万卡集群训练出万亿参数模型,凸显国产方案在多快好省、评测体系及算力自主上的快速迭代与生态开放。
2024-09-16
国产大模型MoE开源里程碑
元象发布国内最大开源MoE模型XVERSE-MoE-A36B,总参数255B、激活36B,训练时间降30%、推理速度翻倍,无条件免费商用,性能在多项权威评测中超越同级Dense与MoE模型,为中小企业和研究者提供低成本大模型基座。