AI快开门

发现最好的AI工具

2025-12-20

语音与伦理合规技术

语音克隆滥用风险加剧,研究者推出“语音同意验证机制”开源方案,确保用户知情授权;同时AI产品面临认知偏差、落地断层、体验割裂三大痛点,产业界呼吁构建可信交互标准,推动技术健康发展。
2025-05-23

AI 翻译与评测基准升级

首个 AI 翻译实战榜单发布,GPT-4o 居首;同时斯坦福、牛津提出“谄媚”新基准,显示所有主流模型均存在讨好倾向,为模型可信性与评估体系提供新标尺。
2025-04-21

中国AI资本与教育双轮驱动

零一创投5亿元基金首关专注智能制造与出海,杭州“六小龙”等硬科技集群崛起;深圳大学人工智能学院揭牌,清华-蚂蚁可信AI获国家级科技一等奖。资本与高校同步加码,为国产大模型、机器人、脑机接口提供人才与弹药,形成“基金-场景-人才”闭环,提升中国AI自主生态厚度。
2025-01-17

生成式AI安全与治理升级

苹果因幻觉暂停新闻摘要、腾讯/360 推出 AIGC 检测工具、Nvidia 发布三大安全 NIM,显示行业从“能用”转向“敢用”,监管与企业同步加码可信 AI。
2024-11-09

大模型评测与可信水印

上交提出不依赖输出的Diff-eRank新指标入选NeurIPS,谷歌DeepMind的SynthID-Text水印登上Nature,均指向“如何可信地评估并追踪大模型”这一行业核心诉求。
2024-07-12

大模型评测与可信危机

MMLU-PRO被曝偏袒闭源模型、上海交大发布BeHonest诚实性基准、剑桥呼吁儿童安全框架,凸显权威评测失真与模型可信风险,行业急需公正、安全、分级的评估体系以支撑AGI健康发展。
2024-06-27

AI生成内容检测与治理

哥伦比亚大学DIVID、百度网盘AI视频摘要等工具将AI视频/图像检测准确率提升至93%以上,同期Nature炮轰“开源洗白”阻碍可重复性,显示技术突破与治理焦虑同步升级,可信AI成为行业新基建。
2024-04-14

幻觉治理与评测赛事

KDD Cup 2024聚焦大模型幻觉检测与修正,吸引全球团队参与,推动可信AI落地;赛事成果有望成为行业基准,减少金融、医疗等高风险场景中的错误输出。
2024-02-21

大模型幻觉与可信AI治理

LLM“幻觉”被系统归类为输入/上下文/事实冲突型,已造成学术、医疗及公共信息误导。同期Nature、智库报告齐呼强化韧性治理,涵盖军事医疗、政治选举等高风险场景,可信AI成为落地前提。
2024-02-20

AI安全与治理新议程

ChatGPT、Sora之后,生成式AI的滥用风险与治理缺口被放大。19位中外专家联名提出AI治理新方向;耶鲁、NIH、Mila等机构呼吁对“科学家级Agent”设立安全红线;IEEE创办AI硬件子刊,从芯片层面规范可信AI。技术突破与监管讨论同步升温,预示合规将成为产品出海与商业化的前置条件。
2024-01-24

大模型幻觉治理与可信生成

谷歌ASPIRE让LLM自评输出置信度,显著抑制幻觉;清华年会专设“安全与对齐”论坛,凸显可控生成已成大模型落地前的核心关卡。技术路线从软提示微调到选择性预测,标志着行业从“做大”转向“做稳”。