AI快开门
发现AI的无限可能
首页
工具
模型
模型历史
模型排名
模型价格
话题
简报
搜索
首页
工具
模型
话题
简报
搜索
← 返回话题列表
#
F2LLM-v2
相关话题
2026-03-26
大模型高效压缩突破
谷歌TurboQuant将KV缓存压缩6倍实现模型瘦身而不掉点,引发内存股大跌;苹果同步用知识蒸馏把Gemini浓缩进iPhone端侧,蚂蚁F2LLM-v2以1/10参数横扫MTEB十一项冠军,显示“大模型小型化”正成为性能与成本的新战场。
TurboQuant
知识蒸馏
模型压缩
F2LLM-v2
端侧AI