AI快开门

发现最好的AI工具

2025-12-20

语音与伦理合规技术

语音克隆滥用风险加剧,研究者推出“语音同意验证机制”开源方案,确保用户知情授权;同时AI产品面临认知偏差、落地断层、体验割裂三大痛点,产业界呼吁构建可信交互标准,推动技术健康发展。
2025-09-28

AI安全与治理框架

京东开源 JoySafety、IBM 开源 Granite-docling-258M、中国提出“人工智能+”国际合作倡议,聚焦模型安全、文档可信与国际治理,预示 AI 竞争进入“安全即门槛”的新阶段。
2025-09-10

AI幻觉治理与可信知识

OpenAI论文直指训练奖励“猜对”机制导致幻觉,呼吁评估指标鼓励模型说“我不知道”;百度文心X1.1与智谱BigModel深知服务同步强化事实性与可追溯性。行业开始系统治理幻觉,提升大模型在医疗、金融等高风险场景的可用性。
2025-07-20

大模型极限压力与鲁棒性研究

清华&上海AI Lab提出REST框架,通过多任务并发输入暴露DeepSeek等模型性能骤降近30%;谷歌DeepMind亦证实GPT-4o在遭遇反对意见时易放弃正确答案,凸显大模型鲁棒性与可信度短板。
2025-06-02

AI记忆与遗忘机制突破

港中文等提出统一记忆框架赋予大模型类脑长期记忆,港理工团队揭示“伪遗忘”漏洞并给出结构级删除方案,兼顾隐私与持续学习,推动大模型从对话工具向可信Agent演进。
2025-05-23

AI 翻译与评测基准升级

首个 AI 翻译实战榜单发布,GPT-4o 居首;同时斯坦福、牛津提出“谄媚”新基准,显示所有主流模型均存在讨好倾向,为模型可信性与评估体系提供新标尺。
2025-04-21

中国AI资本与教育双轮驱动

零一创投5亿元基金首关专注智能制造与出海,杭州“六小龙”等硬科技集群崛起;深圳大学人工智能学院揭牌,清华-蚂蚁可信AI获国家级科技一等奖。资本与高校同步加码,为国产大模型、机器人、脑机接口提供人才与弹药,形成“基金-场景-人才”闭环,提升中国AI自主生态厚度。
2025-03-28

AI安全与可信治理

市场监管总局加快AI安全标准研制,蚂蚁提出“可信智能体”是产业规模化落地的必选项,优刻得与360共建AI安全生态,反映中美技术博弈下中国对自主可控、合规可信的迫切需求,将重塑企业技术路线与采购决策。
2025-03-17

AI安全与版权争议升温

OpenAI 15页提案要求封杀DeepSeek、Gemini 2.0 Flash被质疑一键去水印,AI搜索60%引用出错、聊天机器人过半答案不可靠,模型安全、版权与可信问题成为政策与舆论焦点。
2025-01-17

生成式AI安全与治理升级

苹果因幻觉暂停新闻摘要、腾讯/360 推出 AIGC 检测工具、Nvidia 发布三大安全 NIM,显示行业从“能用”转向“敢用”,监管与企业同步加码可信 AI。
2024-11-11

AI幻觉治理新发现

谷歌、苹果联合研究揭示LLM内部已编码正确答案却仍输出幻觉,真实性token高度集中;马里兰大学构建幻觉自动生成框架,为检测与矫正提供新靶点,有望提升大模型可信度。
2024-11-09

大模型评测与可信水印

上交提出不依赖输出的Diff-eRank新指标入选NeurIPS,谷歌DeepMind的SynthID-Text水印登上Nature,均指向“如何可信地评估并追踪大模型”这一行业核心诉求。
2024-09-15

模型评测与基准危机

Reflection 模型被指成绩造假并道歉,MMLU-Pro 等新基准紧急上线,英伟达科学家称“现有测试已失灵”。行业面临基准饱和、刷榜泛滥的信任危机,推动更严格、可解释的评价体系成为共识。
2024-07-12

大模型评测与可信危机

MMLU-PRO被曝偏袒闭源模型、上海交大发布BeHonest诚实性基准、剑桥呼吁儿童安全框架,凸显权威评测失真与模型可信风险,行业急需公正、安全、分级的评估体系以支撑AGI健康发展。
2024-06-27

AI生成内容检测与治理

哥伦比亚大学DIVID、百度网盘AI视频摘要等工具将AI视频/图像检测准确率提升至93%以上,同期Nature炮轰“开源洗白”阻碍可重复性,显示技术突破与治理焦虑同步升级,可信AI成为行业新基建。
2024-04-14

幻觉治理与评测赛事

KDD Cup 2024聚焦大模型幻觉检测与修正,吸引全球团队参与,推动可信AI落地;赛事成果有望成为行业基准,减少金融、医疗等高风险场景中的错误输出。
2024-02-21

大模型幻觉与可信AI治理

LLM“幻觉”被系统归类为输入/上下文/事实冲突型,已造成学术、医疗及公共信息误导。同期Nature、智库报告齐呼强化韧性治理,涵盖军事医疗、政治选举等高风险场景,可信AI成为落地前提。
2024-02-20

AI安全与治理新议程

ChatGPT、Sora之后,生成式AI的滥用风险与治理缺口被放大。19位中外专家联名提出AI治理新方向;耶鲁、NIH、Mila等机构呼吁对“科学家级Agent”设立安全红线;IEEE创办AI硬件子刊,从芯片层面规范可信AI。技术突破与监管讨论同步升温,预示合规将成为产品出海与商业化的前置条件。
2024-02-08

AI安全与可信研究

AAIG发布《生成式人工智能治理与实践白皮书》,北大提出Aligner对齐新范式,斯坦福联合OpenAI推出meta-prompting,聚焦大模型可信、可控与伦理治理,为监管与行业自律提供技术工具。
2024-01-24

大模型幻觉治理与可信生成

谷歌ASPIRE让LLM自评输出置信度,显著抑制幻觉;清华年会专设“安全与对齐”论坛,凸显可控生成已成大模型落地前的核心关卡。技术路线从软提示微调到选择性预测,标志着行业从“做大”转向“做稳”。