AI快开门

发现最好的AI工具

2025-10-10

GPT-5偏见治理与超级系统

OpenAI公布500问测试结果称GPT-5为“政治偏见最少”模型,同时Sam Altman宣布目标并非超级App而是构建集研究、基础设施与产品于一体的AI超级系统,显示OpenAI在模型可信性与系统级战略上的双重升级。
2025-04-16

AI安全与版权治理新动向

欧盟拟简化AI法规、英国版权新政引模型偏见争议、白宫要求联邦机构设立AI战略负责人,显示全球监管重心从“限制”转向“减负+合规”,对初创企业融资与模型训练数据来源产生直接影响。
2024-11-23

AI治理与全球合作

2024人工智能合作与治理国际论坛即将在新加坡召开,聚焦跨国AI治理、数据隐私、算法偏见与法规统一;与此同时,美国芯片法案推动供应链回流,全球围绕AI技术、标准与伦理的博弈进入深水区,多边合作与规则制定迫在眉睫。
2024-10-21

AI安全与模型偏见

研究发现大模型对边缘群体关键词更易被攻破,ChatGPT会因用户名不同给出偏见回答,LLM“知道却不说”现象被谷歌苹果证实。安全、对齐与公平问题从伦理议题升级为商业落地前置条件,催生检测与治理新需求。
2024-10-17

AI伦理与数据治理风险升温

OpenAI 53页报告证实ChatGPT因用户名产生性别/种族偏见;推特强制用户数据训练AI且不可退出;Meta“开源”定义遭质疑,多重事件凸显模型偏见、数据合规与术语滥用已成为行业不可回避的治理挑战,监管与公众信任压力陡增。
2024-06-23

模型偏见与治理研究

UCLA 与亚马逊 Alexa 团队提出 LMBias 框架,系统评估大模型在种族、性别等维度的生成偏见;清华与电信研究院则聚焦 AI 国际治理框架与标准。随着模型能力增强,公平性、安全性与合规性成为部署前的硬门槛,相关研究为政策制定与行业自律提供量化工具。
2024-04-07

AI安全与伦理风险

清华&NUS提出LLaVA-UHD揭示GPT-4V视觉编码漏洞,解释“AI幻觉”根源;ICLR 2024论文指出联邦学习后门攻击的关键层,Meta图像生成器被曝种族歧视拒绝白人亚洲人同框,提示随着模型能力跃升,安全、对齐与伦理问题正成为技术大规模商用的前置条件。