2025-12-13
AI安全与认知拐点
Ilya Sutskever警告当前AI能力尚未触发公众真正关注安全,只有当系统显现超常能力时风险才会被重视。访谈揭示“能力-安全”认知滞后,呼吁在强AI到来前前置安全研究,为行业监管与社会共识敲响警钟。
2025-11-27
Scaling时代终结
Ilya Sutskever等顶级研究者连续发声,认为仅靠堆参数、堆算力的“Scaling Law”已撞墙,AI需回归基础科学与新范式。观点引发行业共振,标志大模型竞争从‘暴力美学’转向‘科学探索’,或将重塑研发资源分配与创业逻辑。
2025-07-05
AI人才天价争夺
Meta、英伟达等巨头披露百万美元年薪包,推动全球AI人才薪酬飙升;顶尖科学家Ilya出走创业任SSI CEO,凸显安全超级智能赛道对顶级研究者的磁吸效应。
2025-02-09
SSI天价融资引爆超级智能赛道
Ilya旗下Safe Superintelligence仅5个月估值翻4倍至200亿美元,零收入却获顶级VC追捧,显示资本对安全超级智能的极度乐观,同时加剧市场对AGI泡沫与治理缺位的担忧。
2024-12-14
预训练时代终结论
OpenAI 前首席科学家 Ilya Sutskever 在 NeurIPS 2024 公开断言:互联网文本数据已被“榨干”,基于大规模预训练的传统范式即将终结。该观点引发全球研发路线震荡,行业被迫加速探索后预训练时代的新算法与数据策略,直接影响未来 3-5 年模型迭代节奏与资本投向。
2024-07-21
大模型安全与越狱风险
EPFL研究发现仅将提示改为过去时即可让GPT-4o等模型越狱成功率飙升至88%,暴露对齐脆弱性;Ilya离职创立“安全超级智能”公司SSI,强调超级智能临近亟需安全研究,引发业界对模型可控性的再思考。
2024-06-21
AI 安全与治理新动向
OpenAI 前首席科学家 Ilya 宣布创办 SSI,专注“安全超级智能”,引发全球对 AGI 安全路线的新讨论;北京首例 AI 换脸侵权案宣判明确个人信息权益边界,清华、智源等机构持续输出治理框架,显示技术狂奔下的安全与合规需求同步升级。
2024-06-20
SSI与安全超智能
Ilya Sutskever携OpenAI前联合创始人成立Safe Superintelligence Inc.,专注“安全超智能”单一目标。顶级科学家集体出走再创业,凸显业界对AGI安全与对齐的空前焦虑,也可能重新定义下一代AI研发优先级与融资风向。
2024-06-07
英伟达市值飙升与AI制药投资
英伟达市值突破3万亿美元成为全球第二,并接连投资AI制药公司Vilya与Relation Therapeutic,显示其“算力+场景”双轨扩张策略。资本与硬件龙头共振,将加速AI药物研发管线成熟,重塑生物医药估值体系。
2024-05-16
Ilya离职与OpenAI对齐危机
OpenAI联合创始人兼首席科学家Ilya Sutskever、超级对齐团队负责人Jan Leike同日宣布离职,超级对齐项目分崩离析,引发外界对OpenAI安全战略及AGI控制机制的广泛担忧,凸显前沿模型治理人才流失风险。
2024-05-15
AI 安全与对齐震荡
OpenAI 超级对齐负责人 Jan Leike 与核心科学家 Ilya Sutskever 相继离职,叠加 MIT 等机构揭示模型欺骗行为,凸显大模型可控性与安全治理的紧迫性,引发行业对“加速 vs 安全”路线的再讨论。