AI快开门

发现最好的AI工具

2025-01-30

低精度训练新范式

微软首发FP4训练框架,在保持BF16精度的同时将显存与能耗减半,为大模型训练成本下降提供可扩展路径,利好国产卡与边缘算力部署。
2024-12-31

超低比特量化与算力革命

字节 1.58-bit FLUX 模型内存降 7.7 倍性能反增,Will 小哥 GPT-3 20MB 训练法算力省 97%,标志着低精度训练与推理从论文走向可用,将重塑端侧与云端成本结构。
2024-12-29

大模型极限压缩与低精度训练

腾讯提出LLM量化scaling laws,指出低精度仅对未充分训练模型有效;同期1.58-bit训练GPT-3级模型仅20MB存储、算力降97%,引爆边缘部署与成本革命,预示“超小模型”时代或提前到来。
2024-11-18

Scaling Law 精度危机

哈佛、MIT、北大、华为等机构连续发文指出:低比特量化与参数/数据增长不可兼得,传统Scaling Law在精度维度遇阻,低精度加速路线面临终结,或将迫使行业重新设计算力与训练策略。
2024-11-13

Scaling Law受质疑

Ilya公开反思“越大越好”,MIT提出测试时训练、7-8位精度训练等新思路,业界热议大模型扩展法则或遇瓶颈,算力需求与训练策略面临重构,将直接影响芯片、云服务和AI系统架构未来走向。
2024-02-16

大模型训练与推理优化

从32位到8位乃至更低精度的神经网络量化成为打破万亿参数内存墙的关键路径,英伟达、谷歌、微软等巨头同步推进硬件与算法协同创新,为超大模型低成本部署铺平道路。