AI快开门

发现最好的AI工具

2026-01-03

大模型高效微调

Nat. Mach. Intell. 提出的 scPEFT 框架用低维适配器冻结主干,实现单细胞大语言模型任务与物种迁移,参数与显存下降 90% 以上,缓解灾难性遗忘,为生命科学大模型落地提供低成本范式。
2025-10-15

大模型训练范式革新

谷歌、腾讯、斯坦福等相继提出“无需微调”或“极低成本”即可让大模型自我进化的新框架,标志传统重训练/微调模式正在被上下文学习、自我改进、无训练优化颠覆,显著降低算力与资金门槛,将加速模型平民化与行业落地。
2025-10-03

模型微调平民化

Thinking Machines Lab发布Tinker/Thinker API,用几行Python即可完成大模型微调,获卡帕西点赞;淘天开源RecIS框架,支持超大规模稀疏-稠密训练。工具链成熟显著降低研究与产业落地门槛,加速AI民主化。
2025-10-02

大模型微调与推理创新

蚂蚁&港大PromptCoT 2.0用强化学习自博弈合成任务,30B模型数学代码刷新SOTA;Thinking Machines推出Tinker一站式后训练工具,LoRA微调门槛骤降;DeepSeek开源TileLang国产GPU语言,华为昇腾Day0适配,底层生态加速自主化。
2024-12-08

强化微调技术突破

OpenAI推出Reinforcement Fine-Tuning,用几十条样本即可让o1-mini反超o1,得分暴涨80%,为垂直领域低成本打造专家模型提供新范式,科研、医疗、法律等场景商业化门槛显著降低。
2024-09-17

高效微调与硬件革新

上交&哈佛提出LoRA-Dash,把特定任务微调参数量再降8-16倍;Nature研究发布新型忆阻器,能效达Haswell CPU的460倍,为昂贵LLM的端侧部署与节能训练提供新路径。
2024-09-16

高效微调框架LoRA-Dash登场

上交大与哈佛联合推出LoRA-Dash微调框架,针对特定任务方向优化低秩适配,显存与算力需求较LoRA再降30%以上,在Code、Math、MedQA等基准上取得SOTA,为中小企业和边缘端模型定制提供新工具。
2024-08-22

多模态大模型激战

GPT-4o微调免费、豆包多模态升级、腾讯混元MoE、微软Phi-3.5三连发,国内外厂商在同一周密集放出多模态与MoE新模型,标志大模型竞争进入“多模态+低成本”阶段,直接决定下游应用落地速度。
2024-08-20

大模型性能突破与开源竞赛

通义千问Qwen2-Math 72B数学能力超越GPT-4,微软AgentInstruct合成数据让LLM数学暴涨168%,智源Infinity-Instruct千万级指令集把Llama3.1推到GPT-4边缘,开源社区正用数据工程与后训练技巧快速缩小与闭源巨头的差距,预示基础模型格局或加速洗牌。
2024-07-27

开源大模型生态升级

Meta推出迄今最强开源模型Llama 3.1 405B,性能对标闭源旗舰;SGLang、vLLM等推理框架同步优化,实现3K Star级加速;OpenAI则限时免费微调GPT-4o mini。开源与闭源同时放大招,降低开发者门槛,加速应用层创新。
2024-05-21

模型训练方法反思

哥伦比亚与Databricks研究显示LoRA在数学、编程任务精度仅为全量微调80%-90%,但遗忘更少;北大教授指出“只会闲聊的大模型用户不买单”,强调垂域应用与数据策略需重新评估。
2024-05-09

模型训练降本增效

Unsloth框架结合QLoRA把Llama3-8B微调显存压缩至7.75GB,1080Ti即可训练;ICLR颁发首届时间检验奖给VAE,凸显高效训练与生成式基础架构持续创新,将降低中小团队进入大模型研发的门槛。
2024-05-06

开源数据与模型工具链

HuggingFace发布15T tokens FineWeb数据集并配套部署、量化、微调教程,降低大模型训练与本地化门槛,推动社区创新。
2024-05-03

Llama 3开源生态升级

Meta公布Llama 3全周期训练细节并同步放大开源工具链,引发全球微调与测评热潮,降低行业进入门槛,加速中小团队大模型应用落地,进一步巩固开源阵营对闭源模型的竞争壁垒。
2024-04-28

大模型高效压缩与微调

港大&北航联合研究显示Llama 3低比特量化性能显著下降,引发社区对端侧部署可行性的再评估;同时参数高效微调综述与多模态开源模型XVERSE-V、ViTamin等发布,为降低训练与推理成本提供新工具,推动大模型在资源受限场景落地。
2024-04-01

高效微调与数据闭环新方法

LISA比LoRA再快50%,单卡3090逼近全参微调;ICLR2024研究验证“生成数据反哺训练”闭环;UIUC与LMFlow提出低成本高效微调范式,为大模型迭代降本增效提供新路径。
2024-03-20

大模型落地与微调实践

澜舟、华为等分享10B级大模型在ToB场景“四两拨千斤”的落地经验,强调成本优先、微调驱动;同时CPU-RAG方案回击“向量数据库已死”论调,显示行业正从参数竞赛转向场景深耕与性价比优化。
2024-03-13

模型训练与微调新方法

DoRA、ReAlign等高效微调方法在LoRA基础上再提性能,降低显存开销;北大300页RAG综述系统梳理检索增强生成,提示工程与参数高效训练成为大模型落地的关键配套技术。
2024-02-16

AI应用落地与方法论

微软发布特定领域大模型建设流程指南,系统比较RAG与微调优劣;清华提出空间冗余Transformer去噪荧光图像;机器人陪跑应用亮相,显示AI正向医疗、办公、运动等细分场景快速渗透。
2024-02-11

大模型训练效率革命

陈丹琦团队提出LESS算法,仅用5%任务相关数据即可在微调阶段超越全量数据效果,显著降低算力与存储成本,同时保持跨任务迁移能力,为千亿级模型普及打开新路径。