AI快开门
发现最好的AI工具
首页
分类
模型
模型历史
模型排名
模型价格
话题
简报
搜索
← 返回话题列表
#
LWM
相关话题
2024-04-05
开源大模型与MoE新架构
UC伯克利开源百万上下文世界模型LWM,全华人团队以10万美元训练出Llama-2级MoE大模型,谷歌更新Transformer架构实现50%性能提升,显示开源社区正快速缩小与闭源模型的差距并推动架构创新。
开源大模型
MoE
Transformer
LWM
成本优化