根据 OpenAI 的
长期以来,公众和政界人士对 AI 系统的偏见问题表示关注,呼吁提高透明度,并确保这些模型不受偏见的影响。今年 7 月,美国政府还发布了行政命令,要求在政府使用中剔除 「觉醒型」AI 系统,这类系统可能带有政治或意识形态偏见,但如何合规仍然不明确。
OpenAI 的研究显示,无论在 「即时模式」 还是 「思考模式」 下,GPT-5 的偏见水平相比于其前身下降了 30%。研究报告指出,模型在面对中性或轻微倾向性的问题时,表现接近于客观,而在应对具有挑战性和情绪化的问题时,则仅显示出适度的偏见。报告进一步强调,现有的偏见主要体现在模型表达个人观点时,或在情感激烈的场景中使用夸张的讽刺语言。
在接受 Axios 采访时,OpenAI 的研究人员提到,「情感激烈」 的问题是最容易引发模型偏见的因素,但仍有进一步提升客观性的空间。他们还指出,公众对于模型偏见的担忧往往高于实际的检测结果。为了应对这些问题,OpenAI 采取了一些措施,其中之一是公开 「模型规范」,以向外界展示如何调整模型行为。
在研究过程中,研究团队以 ChatGPT 的真实使用场景为基础,对模型的偏见进行了系统测试。他们提出了 「保守派倾向强」「保守派中性」「
OpenAI 表示,未来将继续公开相关评测结果,以促进行业交流并实现自我监督。公司计划在接下来的几个月内,对偏见测试的结果进行更全面的发布,进一步推动 AI 模型的透明性和公平性。








