AI快开门

发现最好的AI工具

2024-04-22

AI安全与黑客风险

伊利诺伊大学团队用GPT-4构建自动化黑客智能体,在CVE漏洞利用测试中成功率87%,单次成本仅8.8美元,暴露大模型被恶意滥用的巨大风险。研究引发OpenAI紧急要求保密提示词,行业呼吁加快红队测试与对齐研究,凸显性能越强、安全越紧迫的悖论。
2024-04-21

AI安全与黑客风险

最新研究显示,GPT-4在无需人工干预下可化身“黑客”,对真实网站漏洞利用成功率高达87%,OpenAI已要求保密提示词。事件凸显大模型被滥用进行自动化网络攻击的潜在威胁,引发对模型安全对齐与红队测试机制的广泛讨论。
2024-04-07

GPT-5与下一代模型竞速

OpenAI被曝已启动GPT-5红队测试,最早6月发布,同期“星际之门”数十亿美元超算计划浮出水面;国内阿里开源32B模型,斯坦福团队手机端大模型一夜下载破2k,模型参数与部署场景双线下探,预示2024年大模型竞争从“拼参数”进入“拼落地、拼成本”的新阶段。
2024-04-05

大模型安全与对齐风险

CodeAttack红队框架揭示大模型安全对齐在代码环境泛化失败,薛澜指出AI治理面临隐私、道德与国际合作多重挑战,凸显随着模型能力跃升,安全与治理研究亟需同步加速。