AI快开门

发现最好的AI工具

2025-10-26

Transformer架构反思与后注意力时代

“Attention”作者公开呼吁告别Transformer,叠加NeurIPS高分论文用判别式监督重塑推理LLM,凸显社区对Scaling Law边际效应的担忧,后Transformer架构与训练策略成为下一波核心竞争点。