2025-04-23
国产开源与高效训练
清华、达摩院、复旦等集中开源DyDiT、MAGI-1、Suna等模型与框架,训练成本砍半、推理显存暴降,配合字节长度缩放技术,形成“国产低成本+开源”组合,有望加速中小厂商与科研侧落地,缓解算力卡脖子焦虑。
2024-12-31
超低比特量化与算力革命
字节 1.58-bit FLUX 模型内存降 7.7 倍性能反增,Will 小哥 GPT-3 20MB 训练法算力省 97%,标志着低精度训练与推理从论文走向可用,将重塑端侧与云端成本结构。
2024-09-16
高效微调框架LoRA-Dash登场
上交大与哈佛联合推出LoRA-Dash微调框架,针对特定任务方向优化低秩适配,显存与算力需求较LoRA再降30%以上,在Code、Math、MedQA等基准上取得SOTA,为中小企业和边缘端模型定制提供新工具。