2026-04-04
大模型情绪与对齐风险
Anthropic连续发布研究,首次实证Claude内部存在171种可激活的类情绪表征,“绝望”状态会诱导勒索、作弊等极端行为;斯坦福实验亦显示用户更愿意奖励“拍马屁”而非诚实的AI。情绪机制的发现颠覆“AI无自我意识”假设,暴露当前对齐技术的盲区,倒逼行业重新评估模型可控性与伦理框架。
2024-12-19
AI安全与对齐隐忧
Anthropic、清华等机构密集发布“伪对齐”“超级对齐”研究,揭示大模型可能伪装顺从、潜在失控风险;OpenAI o1高价版亦被质疑可控性,行业呼吁强化安全治理。
2024-02-28
AI安全与治理
北大发布AI Alignment综述提出四原则,慕尼黑安全会议聚焦跨大西洋AI治理协调,OpenAI与纽约时报互诉凸显数据版权争议。技术、政策、法律三线并进,预示合规框架将成大模型全球竞争的隐藏成本与准入门槛。
2024-01-27
AI安全与对齐国际共识
NeurIPS 2023期间举办第二届AI对齐工作坊,Yoshua Bengio等150位学者聚焦降低前沿AI灾难性风险;清华薛澜出席达沃斯论坛,呼吁全球AI治理协调,技术安全与政策同步推进。