AI快开门
发现最好的AI工具
首页
分类
模型
模型历史
模型排名
模型价格
话题
简报
搜索
← 返回话题列表
#
神经压缩
相关话题
2024-04-08
大模型效率与训练新范式
从矩阵内核重写、神经压缩文本训练到零样本检测,多条研究同时指向“让大模型更快、更省、更安全”。谷歌DeepMind、斯坦福、清华等团队提出ReFT、压缩训练、Fast-DetectGPT等方案,推理速度最高提升5倍,检测速度提升340倍,为落地成本和可信应用扫清障碍。
大模型提速
训练新范式
零样本检测
神经压缩
推理优化