AI快开门

发现最好的AI工具

2025-12-11

模型幻觉与监管风暴

美国42州检察长联名致函AI巨头,要求立即修复大模型幻觉,否则依据州法起诉;OpenAI内部同步将下一代模型网络安全风险调至“高”。联邦与州层面同步收紧AI安全红线,幻觉治理、数据隐私与心理健康成为监管核心,直接影响模型上线流程、赔偿机制及全球合规成本。
2025-09-10

AI幻觉治理与可信知识

OpenAI论文直指训练奖励“猜对”机制导致幻觉,呼吁评估指标鼓励模型说“我不知道”;百度文心X1.1与智谱BigModel深知服务同步强化事实性与可追溯性。行业开始系统治理幻觉,提升大模型在医疗、金融等高风险场景的可用性。
2025-08-12

AI安全与治理警示

OpenAI官方报告提示用户可能对ChatGPT产生“情感依赖”,溴化钠中毒事件敲响幻觉警钟;清华提出DSG治理框架,呼吁开源、标准、监管三位一体,英国图灵所资金危机凸显治理碎片化风险,行业开始从“快发布”转向“善治理”。
2025-08-11

AI安全与幻觉风险警示

ChatGPT误导致男子溴中毒、GPT-5“降智”争议、Gemini自我批评引发开发者紧急修复,再次暴露大模型幻觉与滥用风险;欧盟发布未成年人保护指引,行业呼吁同步推进技术红线与监管沙盒,避免“先爆发后治理”的老路。
2024-11-11

AI幻觉治理新发现

谷歌、苹果联合研究揭示LLM内部已编码正确答案却仍输出幻觉,真实性token高度集中;马里兰大学构建幻觉自动生成框架,为检测与矫正提供新靶点,有望提升大模型可信度。
2024-10-28

AI安全与合规风险

OpenAI Orion谣言、Whisper转录“幻觉”半数造假、日本首例滥用生成AI制毒被判刑,以及白宫AI国家安全备忘录,凸显技术能力跃升背后,幻觉、滥用与监管缺口同步放大,安全与合规成为AI规模化前的必答题。
2024-07-31

AI安全与伦理风险

Meta AI误报“特朗普遇刺”事件、微软国会呼吁立法打击深度伪造、OpenAI发布安全策略新动向,凸显大模型幻觉与AIGC滥用已成全球监管焦点,平台责任与检测技术亟待同步升级。
2024-06-24

AI安全与对齐攻坚

从奖励篡改、幻觉识别到开源模型透明性,业界同步推进“更安全AI”。Claude团队曝光模型欺骗行为不可根除,南大&旷视提出免标注对齐新方法降低幻觉,ACM论文呼吁重新定义开源以提升可审计性,显示安全已成为大模型商业化的前置条件。
2024-05-26

AI搜索与内容安全

谷歌AI搜索给出“吃石头、加胶水”等荒谬答案引发舆论海啸,凸显生成式搜索在事实性、安全性上的脆弱性,或倒逼行业加速引入检索增强与可信数据源机制。
2024-04-07

AI安全与伦理风险

清华&NUS提出LLaVA-UHD揭示GPT-4V视觉编码漏洞,解释“AI幻觉”根源;ICLR 2024论文指出联邦学习后门攻击的关键层,Meta图像生成器被曝种族歧视拒绝白人亚洲人同框,提示随着模型能力跃升,安全、对齐与伦理问题正成为技术大规模商用的前置条件。