AI快开门

发现最好的AI工具

2025-12-01

Scaling Law遇瓶颈

Ilya公开宣称“单纯堆参数已死”,SemiAnalysis爆料OpenAI两年半未跑出新一代前沿模型,引发行业对“后预训练”范式的集体反思,世界模型、持续学习、数据合成成为新焦点。
2025-10-12

机器人数据瓶颈与竞赛

Figure 03登《时代》封面却坦言“就差数据”,李飞飞联合英伟达发起BEHAVIOR家务挑战赛,同济等高校发布KineDex灵巧手示教框架,UC伯克利预测五年内部署飞轮,凸显真实场景数据已成为具身智能大规模落地的最大瓶颈与竞逐焦点。
2025-10-05

AI虚拟筛选重塑药物发现

渥太华大学综述指出AI正将基于配体/结构的虚拟筛选效率提升一个量级,但数据整理与前瞻性验证仍是释放AI制药潜力的关键瓶颈。
2025-05-25

大模型数据合成新框架

麦吉尔大学提出统计可控的数据合成框架LLMSynthor,解决大模型自生成数据偏差与崩溃难题,为后训练阶段提供高质量、可扩展的“合成燃料”,降低对真实数据依赖。
2025-01-03

模型参数泄密与Scaling瓶颈

微软论文意外曝光GPT-4o仅200B、o1约300B,引发对Scaling Law天花板的再讨论;CMU与DeepMind提出自生成记忆缓解数据不足,凸显大模型训练进入效率与隐私双重挑战期。
2024-07-27

模型崩溃与数据危机

牛津、剑桥等顶尖机构在Nature封面指出:用AI合成数据反复自训会导致“模型崩溃”,性能断崖式下跌;同时高质量人类数据逼近枯竭,Scaling Law神话受到质疑。该发现直接动摇大模型迭代路径,迫使行业重新评估数据策略与可持续训练方案。
2024-05-04

合成数据驱动模型新高

清华SuperBench评测显示,Claude-3在完全合成数据上训练后拿下多项第一,超越GPT-4与Llama-3,证明高质量合成数据可缓解真实语料枯竭,为后续大模型训练提供新燃料。