2025-04-21
大模型推理与幻觉治理
OpenAI o3/o4-mini在代码推理刷新纪录的同时,幻觉率飙升至33%,引发RL过度优化质疑;清华Hyper-RAG以超图增强知识关联,显著降低幻觉。行业共识:推理性能与可信度需同步提升,RAG、搜索-推理协同及原生1bit轻量化成为新方向,将决定大模型在医疗、法律等高可靠场景的落地速度。
2024-10-13
AI医疗安全与伦理警示
研究显示通用大模型在医疗问答中22%建议可能危及生命,暴露幻觉与专业缺口;同期国内政策文件强调公共数据合规利用与伦理教育,提示AI深入生命健康领域需配套治理与监管。
2024-09-08
大模型推理可靠性反思
ICML热议“边推理边纠错”,Reflection 70B被质疑基模造假,ChatGPT连续30次修改仍出错。行业开始正视幻觉与自我纠正难题,推理可信度成为大模型商业化最后一公里,决定能否深入医疗、金融等高敏场景。
2024-08-08
AI安全与治理
英国搁置1.7亿AI基金、苹果后台提示词泄露、北大LooGLE长文本基准揭示模型缺陷、MIT乳腺癌早筛模型登Science,反映政策、隐私、幻觉、伦理等治理议题与技术创新同步升温,成为行业可持续发展的关键变量。
2024-04-14
幻觉治理与评测赛事
KDD Cup 2024聚焦大模型幻觉检测与修正,吸引全球团队参与,推动可信AI落地;赛事成果有望成为行业基准,减少金融、医疗等高风险场景中的错误输出。
2024-01-04
大模型幻觉与治理挑战
GPT-4被曝“寒假降智”凸显大模型可控性与可解释性短板;同期中美欧密集出台军事与民用AI治理框架,显示技术飞跃与监管赛跑进入关键期。如何兼顾性能与安全,将决定大模型能否持续商业化。