AI快开门

发现最好的AI工具

2024-04-05

开源大模型与MoE新架构

UC伯克利开源百万上下文世界模型LWM,全华人团队以10万美元训练出Llama-2级MoE大模型,谷歌更新Transformer架构实现50%性能提升,显示开源社区正快速缩小与闭源模型的差距并推动架构创新。