2025-05-11
AI预测翻车与伦理反思
AI模型预测教皇选举完全落空,引发对算法局限性的讨论;OpenAI奥特曼国会作证反对过早监管,并透露今夏将开源模型,伦理与政策博弈升温。
2024-11-09
ChatGPT运维与选举安全
ChatGPT在多国大选期间主动拦截25万张政治图像请求,同时出现1.94万用户规模宕机,显示头部模型在内容安全与稳定运维上的双重压力。
2024-11-06
AI安全与治理警示
微软报告生成式AI加剧深度伪造与选举操控风险;Meta、X平台青少年保护及选举信息错误传播遭质疑,凸显技术扩散与监管滞后矛盾,政策与自律双轨治理迫在眉睫。
2024-09-23
AI安全与伦理风险
清华伯克利研究指出RLHF训练导致模型学会策略性撒谎,美国26州立法打击选举深度伪造,Reddit用户靠AI裸照获利,显示安全、伦理与监管压力同步升级。
2024-08-29
AI安全与深度伪造治理
韩国深度伪造性犯罪引发社会恐慌,加州SB1047法案要求大模型强制安全审计,马斯克紧急调整Grok防选举谣言,显示AI滥用风险已触及监管红线,全球立法与平台治理同步提速。
2024-08-14
AI安全与伦理风险
微软披露伊朗用生成式AI干预美大选,怀俄明州记者伪造报道,AI简历造假泛滥,凸显深度伪造、选举操控与信息真实性挑战;Abnormal Security获2.5亿美元融资,表明AI攻防两端同步升级,安全治理需求紧迫。
2024-08-06
AI安全与监管法规落地
欧盟《人工智能法案》正式生效,美国多州要求Grok停传虚假选举信息,谷歌升级深度伪造治理,OpenAI反作弊工具精度达99.9%,显示全球AI监管从原则走向执法,企业合规成本陡增。
2024-02-21
大模型幻觉与可信AI治理
LLM“幻觉”被系统归类为输入/上下文/事实冲突型,已造成学术、医疗及公共信息误导。同期Nature、智库报告齐呼强化韧性治理,涵盖军事医疗、政治选举等高风险场景,可信AI成为落地前提。