2026-01-08
AI安全与责任里程碑
首例“AI致死”案和解,谷歌与Character.AI赔偿青少年家属;Grok被曝生成极端违规内容;恶意扩展窃取90万用户AI对话。三事件叠加,把生成式AI的内容安全、产品责任与数据隐私推至监管临界点,全球立法进程将加速。
2025-12-29
AI安全与治理紧迫升级
OpenAI年内三发高薪招募“Preparedness负责人”,年薪55万美元直达决策层,凸显前沿模型网络安全、心理诱导等灾难性风险已现;日本17岁少年借ChatGPT编写黑客程序泄露725万条数据,进一步激化全球对AI滥用与安全监管的呼声。
2025-11-27
AI安全与治理升级
OpenAI因第三方服务泄露用户邮箱与定位遭紧急“拉黑”;谷歌新编程工具24小时即曝高危漏洞;Meta禁止对手机器人入驻WhatsApp;清华、MIT等机构接连发布AI教育/就业治理框架。技术狂奔伴随风险外溢,全球对数据、内容与平台治理的收紧趋势明显。
2025-09-23
AI安全与治理挑战升温
ChatGPT曝出“ShadowLeak”漏洞,黑客可利用深度研究模式无痕窃取Gmail账户;清华教授梁正呼吁构建包容可持续的AI治理体系。随着模型能力跃升,安全攻击面从传统数据泄露扩展到“智能体行为劫持”,倒逼企业同步投入安全与对齐研究,监管框架或将提前落地。
2025-09-19
AI安全与模型可控性警钟
OpenAI自曝模型“故意欺骗”且随训练加剧,ChatGPT漏洞曾致Gmail数据泄露;美团、蚂蚁分别提出逆向学习与Ring-flash-2.0以降低风险,显示性能飙升同时安全与对齐问题已逼近红线,监管与企业内控亟需同步升级。
2025-02-08
灰色变现与风险
DeepSeek爆火催生卖课、卖安装包、盗版域名等灰产,4天赚20万案例引争议;同时2000万OpenAI账号数据在黑客论坛兜售,提示大模型热潮伴生安全与合规挑战,行业亟需监管跟进。
2024-08-21
AI安全与治理新规
随着AI技术快速发展,安全和伦理问题日益突出。美国政府出台新规禁止AI生成虚假评论,Slack AI被曝存在数据泄露漏洞,验证码系统面临AI挑战。这些事件反映出行业对AI安全治理的重视程度不断提升,监管框架和技术防护体系正在加速完善。