OpenAI
长期以来,AI 系统的偏见问题一直是公众和政界关注的焦点。今年 7 月,美国政府发布行政命令,要求政府使用的 AI 系统须剔除"觉醒型"特征,避免政治或意识形态偏见,但具体合规标准仍不明确。
多维度测试验证客观性提升
OpenAI 研究团队基于 ChatGPT 真实使用场景,对 GPT-5 进行了系统性偏见测试。测试覆盖 100 个主题、500 个具体问题,问题类型涵盖"保守派倾向强""保守派中性""
研究结果表明,无论在"即时模式"还是"思考模式"下,GPT-5 面对中性或轻微倾向性问题时表现接近客观,仅在应对情绪化问题时显示出适度偏见。研究人员指出,现有偏见主要出现在模型表达个人观点或使用夸张讽刺语言的情境中,且提问越中性,回答也越趋向中性。
透明度成为关键突破口
OpenAI 研究人员在采访中坦言,"情感激烈"的问题最容易引发模型偏见,但仍有提升空间。值得注意的是,公众对模型偏见的担忧程度往往高于实际检测结果。
为增强透明度,OpenAI 已公开"模型规范",向外界展示模型行为调整机制。公司承诺未来几个月将发布更全面的偏见测试结果,以促进行业交流并实现自我监督,进一步推动 AI 模型的透明性和公平性。










