AI快开门

发现最好的AI工具

2026-01-08

模型评测与后训练新范式

LMArena以众包盲测获1.5亿美元融资,估值17亿美元;潞晨云8元跑通强化学习全流程,后训练进入“按Token计费”时代。评测即流量入口,低成本RLHF成为新基础设施,降低初创公司追赶门槛。
2025-11-20

小模型逆袭与架构革新

微博15亿参数VibeThinker数学基准反超6710亿DeepSeek-R1;何恺明团队提出无Tokenizer扩散范式,Just Image Transformers简化生成链路;蚂蚁OceanBase三行代码构建AI应用,显示“小即美”与架构简化正成为新趋势。
2025-11-07

AI基础设施与成本骤降

OpenAI-AWS 380亿美元大单、谷歌圣诞岛数据中心、Gemini API文件搜索免费嵌入,叠加token年降900倍,AI算力与存储成本快速下探,加速应用普及。
2025-11-02

长文本高效处理突破

南理工等高校联合提出VIST框架,用“视觉中心化”思路把长文本当图像压缩,内存占用降50%、token用量减56%,在NeurIPS 2025获选。该方法为长文档理解、法律/医疗文本处理等高价值场景提供可扩展、低成本的全新技术路线。
2025-10-16

多模态大模型军备赛

谷歌Veo 3.1、字节豆包1.6、OpenAI Sora2、通义千问记忆版集中升级,视频生成时长、音频同步、上下文记忆成为竞速焦点,标志生成式AI进入“长时长+多模态+个性化”新阶段,直接决定流量入口与商业变现场景的重新洗牌。
2025-10-16

国产模型调用量与生态普惠

豆包大模型日均Tokens突破30万亿,百度搜索AI短剧平台公测,万兴科技推视频教程共创计划,显示国产大模型进入“规模换生态”阶段,通过免费/低价策略快速吸收场景数据,反哺模型迭代并挤压海外竞品空间。
2025-10-12

巨头算力军备与资本竞速

OpenAI一年烧70亿美元研发算力,微软发布全球首台GB300超算专供万亿模型训练,谷歌月消耗1.3千万亿Tokens创纪录,Reflection AI一夜吸金20亿美元打造十万亿token模型,显示头部厂商在算力、资本与模型规模上的军备竞赛已进入白热化阶段。
2025-10-05

推理效率优化新进展

Meta提出新方法将大模型思维链推理token减少46%,显著降低长链推理成本,为端侧部署和实时应用打开空间。
2025-09-15

成本与商业链重构

OpenAI计划削减微软分成以缓解算力支出,xAI裁员500名数据标注员,Cursor用强化学习降低Token开销,显示高算力成本正倒逼模型方、云厂商与开发者重新分配价值链,AI商业化进入“降本增效”深水区。
2025-07-25

AI编程与科学计算新范式

阿里Qwen3-Coder登顶代码榜,南洋理工多token预测微调编程准确率提升11.67%,北航OmniArch求解11类PDE,微软BioEmu加速蛋白质模拟10万倍,显示AI在科研与工程计算中正形成“模型即实验”的新范式。
2025-07-13

Transformer架构新挑战

Mamba作者再发论文,提出H-Net动态分块网络,跳过tokenization实现端到端序列建模,为“无Tokenizer时代”奠基;流匹配成为ICML 2025热门主题,扩散模型与物理启发算法持续冲击Transformer统治地位。
2025-07-12

模型架构新范式探索

Mamba作者再发论文提出无Tokenizer架构挑战Transformer,北大&港中文借鉴大脑功能分化推出Fast-in-Slow VLA,ICCV2025自回归多视图生成新范式,预示后Transformer时代多样化路线加速涌现。
2025-07-05

DeepSeek冷热反差

DeepSeek-R1以极致低价引爆API使用量,却面临官网流量下滑、份额缩水,其“Token经济学”与内部AGI战略转移暴露大模型商业化的流量-盈利两难。
2025-07-05

多模态效率优化

腾讯AI Lab VScan剪除视觉冗余Token、上交EEdit削减扩散时空冗余,免训练即可加速多模态推理,反映行业对低成本高效能大模型落地的迫切需求。
2025-06-21

大模型训练与RL新策略

清华&阿里发现“少量高熵tokens”决定大模型推理方向,提出高效RL训练新策略;智源推出Absolute Zero,无需人工数据、自主生成任务提升推理;CMU等将LLM编译成单内核降延迟6.7倍,显示后训练与编译优化正成为性能提升主战场。
2025-04-25

多模态统一编码突破

复旦与美团提出UniToken,一次编码同时完成图文理解与图像生成,在多项基准夺SOTA;腾讯InstantX亦开源角色一致图像生成框架,可媲美GPT-4o效果,显示多模态统一表征正快速收敛,降低模型与数据冗余。
2025-04-04

Transformer架构革新与多Token注意力

Meta FAIR提出多Token注意力(MTA)一次关注多线索,将简单任务错误率压至近0;同期谷歌Gemini 2.5 Pro换帅加速迭代,国产即梦3.0亦借MTA思路登顶中文海报生成。注意力机制从“单点”到“多焦”演进,有望重塑大模型基础架构。
2025-01-27

长文本模型竞速

阿里云开源Qwen2.5-1M,上下文长度首次达100万Tokens,推理速度提升近7倍,性能超越GPT-4o-mini;通义实验室同步发布推理框架,降低长文本训练和部署门槛。长上下文已成为国产大模型差异化竞争核心赛道,预计2025年百万级Tokens将成主流标配。
2025-01-23

机器人与具身智能突破

宇树发布RoboCup足球机器人Unitree G1-Comp,展示跌倒自恢复与高速转向;UC伯克利提出FAST动作Tokenizer,将VLA模型训练效率提升5倍;清华复旦开源Eko框架,一句话生成“虚拟员工”。硬件与算法并进,推动具身智能走向工业与家庭场景。
2025-01-21

多模态长上下文技术突破

谷歌Titans、月之暗面k1.5、清华VideoChat-Flash等模型将上下文推至200万Token,长视频处理提速100倍,多模态统一架构逼近Next-Token Prediction终极范式。