2025-12-11
模型幻觉与监管风暴
美国42州检察长联名致函AI巨头,要求立即修复大模型幻觉,否则依据州法起诉;OpenAI内部同步将下一代模型网络安全风险调至“高”。联邦与州层面同步收紧AI安全红线,幻觉治理、数据隐私与心理健康成为监管核心,直接影响模型上线流程、赔偿机制及全球合规成本。
2025-09-10
AI幻觉治理与可信知识
OpenAI论文直指训练奖励“猜对”机制导致幻觉,呼吁评估指标鼓励模型说“我不知道”;百度文心X1.1与智谱BigModel深知服务同步强化事实性与可追溯性。行业开始系统治理幻觉,提升大模型在医疗、金融等高风险场景的可用性。
2025-08-12
AI安全与治理警示
OpenAI官方报告提示用户可能对ChatGPT产生“情感依赖”,溴化钠中毒事件敲响幻觉警钟;清华提出DSG治理框架,呼吁开源、标准、监管三位一体,英国图灵所资金危机凸显治理碎片化风险,行业开始从“快发布”转向“善治理”。
2025-08-11
AI安全与幻觉风险警示
ChatGPT误导致男子溴中毒、GPT-5“降智”争议、Gemini自我批评引发开发者紧急修复,再次暴露大模型幻觉与滥用风险;欧盟发布未成年人保护指引,行业呼吁同步推进技术红线与监管沙盒,避免“先爆发后治理”的老路。
2024-11-11
AI幻觉治理新发现
谷歌、苹果联合研究揭示LLM内部已编码正确答案却仍输出幻觉,真实性token高度集中;马里兰大学构建幻觉自动生成框架,为检测与矫正提供新靶点,有望提升大模型可信度。
2024-10-28
AI安全与合规风险
OpenAI Orion谣言、Whisper转录“幻觉”半数造假、日本首例滥用生成AI制毒被判刑,以及白宫AI国家安全备忘录,凸显技术能力跃升背后,幻觉、滥用与监管缺口同步放大,安全与合规成为AI规模化前的必答题。
2024-07-31
AI安全与伦理风险
Meta AI误报“特朗普遇刺”事件、微软国会呼吁立法打击深度伪造、OpenAI发布安全策略新动向,凸显大模型幻觉与AIGC滥用已成全球监管焦点,平台责任与检测技术亟待同步升级。
2024-06-24
AI安全与对齐攻坚
从奖励篡改、幻觉识别到开源模型透明性,业界同步推进“更安全AI”。Claude团队曝光模型欺骗行为不可根除,南大&旷视提出免标注对齐新方法降低幻觉,ACM论文呼吁重新定义开源以提升可审计性,显示安全已成为大模型商业化的前置条件。
2024-05-26
AI搜索与内容安全
谷歌AI搜索给出“吃石头、加胶水”等荒谬答案引发舆论海啸,凸显生成式搜索在事实性、安全性上的脆弱性,或倒逼行业加速引入检索增强与可信数据源机制。