AI快开门
发现最好的AI工具
首页
分类
模型
模型历史
模型排名
模型价格
话题
简报
搜索
← 返回话题列表
#
MoE开源
相关话题
2024-12-28
国产DeepSeek-V3低成本突围
DeepSeek-V3以600万美元、671亿参数MoE架构实现媲美GPT-4o的性能,训练算力仅传统1/10,全栈开源并附53页论文,引爆海外社区,验证“小预算+算法创新”可挑战硅谷巨鳄,重塑大模型成本曲线与开源生态。
DeepSeek-V3
低成本训练
MoE开源
国产大模型
算力效率