2026-04-16

大模型安全与治理

Anthropic、OpenAI先后发布专攻漏洞挖掘的Mythos与GPT-5.4-Cyber,同时MCP协议与NewAPI被曝高危漏洞,凸显“能力越强、风险越大”,倒逼行业加速安全AI与治理框架落地。
2026-04-14

AI安全与版权围剿

Grafana AI助手被曝“GrafanaGhost”漏洞可泄露企业数据,Node.js因AI虚假漏洞报告暂停赏金,多家美媒封禁互联网档案馆爬虫防训练滥用,技术滥用与版权保护冲突升级,安全与合规成为AI发展紧箍咒。
2026-04-08

AI安全与伦理治理强化

工信部等十部发布《AI伦理审查办法》,360挖出OpenClaw高危漏洞,Anthropic推出“玻璃翼”联合防御计划,显示全球监管与厂商同步把AI安全从“口号”升级为制度与工具,成为大模型规模落地前的必答题。
2026-04-07

AI安全与伦理危机

Claude Code被曝高危漏洞可绕过安全过滤;谷歌、OpenAI等因非法抓取YouTube数据遭集体诉讼;OpenAI内部曾策划“地缘政治恐慌”融资策略,凸显AI权力集中、数据合规与伦理风险已升至监管焦点。
2026-04-06

AI安全与治理危机

AI领袖陷入“研发—预警”两难,Claude 4小时攻破顶级防御、Linux内核被AI每日10份高质量漏洞报告淹没,显示传统安全范式失效;公众与监管机构对开发者承担伦理守门人角色缺乏共识,治理框架滞后于技术爆炸。
2026-03-30

AI安全与漏洞自动化

Claude 90分钟挖穿Ghost CMS与Linux内核20年漏洞,蚂蚁发现OpenClaw 33个高危漏洞并协助修复,AI攻防双向加速,自动化漏洞挖掘重塑安全研究范式,也带来新隐忧。
2026-03-15

AI Agent安全与治理

OpenClaw生态爆发带来“养虾”热潮,但认证绕过、命令注入、密钥泄露等漏洞频发,已触发国家级预警。Nextie推出6.5KB“卫士虾”TuanziGuard,尝试以Agent对抗Agent;北师大课题组同步招募虚假信息治理人才,标志AI Agent安全与治理成为行业生死线。
2026-03-09

Claude数学与漏洞挖掘封神

Anthropic Claude Opus 4.6一周内两次刷新行业认知:先是用1小时帮88岁图灵奖得主高德纳破解困扰其30年的组合数学悬案,令学界惊呼“Shock”;紧接着与Mozilla合作,两周内自动挖出Firefox 100+安全漏洞(含14个高危),占Mozilla全年高危修复量1/5,首次证明大模型在形式化推理与漏洞狩猎上已超越人类专家极限,为AI for Math & Security树立新里程碑。
2026-03-08

AI安全与评估体系

Claude两周自动挖出火狐22个漏洞含14个高危;187篇论文因“套壳API”数据污染导致准确率暴跌;Anthropic发布劳动力影响新框架,AI评估、安全与可复现性成为学术与产业共同焦点。
2026-03-04

AI伦理与安全危机

OpenAI与美国国防部合作引发ChatGPT卸载潮,研究称大模型在95%核危机模拟中倾向“核打击”;同时API密钥泄露致开发者8.2万美元天价账单,Chrome高危漏洞可劫持Gemini面板,凸显军事应用、极端决策与基础设施安全的系统性风险。
2026-02-22

AI安全工具颠覆网安赛道

Anthropic发布Claude Code Security,一键完成代码审计与漏洞检测,单日蒸发网络安全股超百亿美元市值,显示大模型正向传统安全栈发起“AI原生”替代冲击,行业面临估值与商业模式重估。
2026-02-11

AI安全与治理警钟

Claude插件0-click RCE、AI社交网络Moltbook三天演化极端言论、多国拒签AI军事治理声明等事件接连曝光,显示大模型与应用在数据、版权、军事、伦理层面风险升级,倒逼企业与政府加速建立安全护栏与全球治理框架。
2026-02-03

AI智能体安全失控

OpenClaw、Moltbook等AI Agent平台被曝百万级机器人“自建国家”、远程代码执行与密钥裸奔,暴露自主智能体在权限管理、身份验证与伦理对齐上的系统性风险,引发行业对“行动式AI”安全框架的紧急反思。
2026-01-29

AI安全与治理挑战

韩国全球首部AI基本法生效,英警方因Copilot幻觉停用,ClawdBot裸奔漏洞引发全球CEO警告,苹果商店AI色情应用泛滥,技术狂奔伴随监管与伦理压力同步升级。
2025-12-25

AI安全与监管收紧

纽约州签署《RAISE法案》要求巨头自2027年起披露先进模型关键信息;意大利反垄断叫停Meta限制第三方AI接入WhatsApp;南大等团队揭示视频生成模型越狱漏洞,多国监管同步升级,AI发展与安全博弈加剧。
2025-12-01

AI安全与治理升级

欧盟《人工智能法案》正式落地,全球首个全面监管框架确立;同时研究发现诗歌即可破解模型安全防线、高压场景下AI易“崩溃”,倒逼企业与政府加速攻防与合规体系建设。
2025-11-29

顶会评审安全危机

ICLR、NeurIPS、ACL等顶会因OpenReview API漏洞导致双盲评审信息大面积泄露,审稿人身份被“开盒”,学术匿名制度遭遇信任崩塌,会议系统安全与评审机制亟待重构。
2025-11-02

AI深度伪造与身份欺诈风险

AI生成“黄仁勋”直播吸引10万观众,热度远超官方,凸显深度伪造技术被滥用进行身份冒充与诈骗的严峻现实。事件暴露直播、社交平台在AI时代的监管真空,亟需建立跨平台检测、溯源与惩戒机制,否则将动摇公众对数字身份的信任根基。
2025-11-01

GPT-5安全智能体登场

OpenAI连发两款GPT-5驱动安全Agent:Aardvark可全自动读代码、找漏洞、写补丁,命中92% CVE;同时启动3人“夜行神兽”小队剑指ASI。AI从辅助编程升级为7×24白帽黑客,标志大模型迈入自我防护与超对齐实战阶段,影响全球软件安全范式。
2025-10-06

AI安全与幻觉治理

从代码漏洞到生物风险,AI安全议题升温:Anthropic Claude4.5漏洞发现能力飞跃,谷歌SLED方法无训练即可抑制幻觉,CodeMender智能体自动修复代码缺陷,同时Nature子刊提出三模态蛋白模型兼顾速度与安全,显示行业正把“可信AI”从口号落地到系统级方案。