AI快开门

发现最好的AI工具

2026-01-03

Transformer 架构革新

LSTM 之父推出 PoPE 极坐标位置编码,终结 RoPE 长度外推难题;同期「去 KV Cache」研究把长上下文压入权重,使持续学习成为可能。两项工作分别从位置机制与记忆机制突破 Transformer scaling 瓶颈。
2025-12-02

AI基础研究与数学突破

AI 6小时破解30年Erdős难题、AlphaFold五年解析2亿蛋白、清华持续学习超网络入选顶会,表明大模型在数学、生物、认知理论等基础科学领域开始产出原创成果,反哺算法创新。
2025-11-08

智能体与持续学习新范式

Nested Learning、OpenHands框架及UCSD多智能体训练系统集中亮相,强调通过子问题嵌套、多智能体协作与经验回放彻底缓解灾难性遗忘,使大模型像人脑一样持续进化,并支持数百步工具调用,为自主智能体与终身学习奠定新基座。
2024-05-29

顶级模型评测与认知框架

CoT提出者Jason Wei指出当前大模型基准存在「七宗罪」,难以全面评估能力;复旦&上海AI Lab上线3DGen-Arena,用众包方式360°评测3D生成;哈工大与度小满提出SAPT共享注意力框架,提升持续学习性能。行业开始反思评估体系本身,推动更科学的测试基准,将决定下一代模型的优化方向与竞争格局。
2024-01-02

大模型幻觉与可解释性

最新研究从数学上证明“任何校准的语言模型都必然出现幻觉”,引发行业对LLM可信度的再评估;同时UCSC提出“训练分布漂移”导致GPT-4变笨的新解释,推动模型更新与持续学习机制成为2024焦点。