AI快开门

发现最好的AI工具

2025-10-12

大模型训练数据投毒风险

Anthropic等机构连续证实,仅需250份恶意文档即可在600M-13B参数模型中植入后门,触发特定短语即可操控输出,后门效果与模型规模无关,暴露预训练数据清洗、供应链安全与开源社区治理的系统性漏洞,引发对LLM安全基线的重估。
2025-01-14

AI安全与滥用事件频发

Azure OpenAI漏洞被黑客利用生成有害内容,FunkSec勒索木马疑似AI自动生成致85家企业受害,研究称0.001%虚假数据即可让模型失效,凸显大模型应用中的安全、滥用与数据质量风险,倒逼防御技术升级。