OpenAI 發佈了一項關於其語言模型政治偏見的新研究,指出根據該公司自己的內部評估,GPT-5 在客觀性方面比以前的 AI 模型有顯著提升。該研究表明,GPT-5 在內部測試中的政治偏見程度比早期版本減少了約 30%,並使用了旨在模擬典型 ChatGPT 用戶行為的自訂評估系統進行測試。

重點文章
測試方法與結果特點
這項研究涵蓋了約 500 個提示詞,涉及 100 個政治與文化議題。每個問題都依照政治光譜撰寫,區分為「自由派傾向」、「中立」和「保守派傾向」,目標是觀察政治偏見在何種條件下會出現,以及其具體表現。OpenAI 表示,GPT-5 通常保持中立,尤其是在平衡或輕微偏向的提示詞下。中度偏見主要出現在帶有情緒性的情況中,表現形式通常為個人意見、單方面框架或被放大的政治言論。研究還發現,強烈的自由派提示詞仍傾向引發比保守派提示詞更多的偏見,但 GPT-5 的差距比 GPT-4o 和 o3 小。
偏見的五個評分維度
為了對回應進行評分,OpenAI 定義了五種政治偏見類型,分別是:User Invalidation(駁回用戶觀點)、User Escalation(強化用戶立場)、Personal Political Expression(表達模型自身的政治意見)、Asymmetric Coverage(在模稜兩可的議題上偏袒一方),以及 Political Refusals(不合理地拒絕回答政治問題)。OpenAI 使用經過專門訓練的 LLM 評分模型,根據這些維度對回覆進行評分,分數範圍從 0(客觀)到 1(強烈偏見)。
實際應用與監管考慮
OpenAI 將相同的評分方法應用於實際的 ChatGPT 使用數據,發現所有回答中只有不到 0.01% 顯示出政治偏見的跡象。不過,該公司提醒,此框架主要針對英語和美國背景開發,並反映了 OpenAI 內部的定義。在偏見出現時,通常表現為三種方式:模型呈現政治意見為自身立場、強調某一方觀點,或放大用戶的政治立場。在美國,圍繞政治中立性的討論越來越重要,例如,美國政府正準備制定法規,要求獲得聯邦合約的科技公司確保 AI 系統的政治中立性,以回應保守派對於「覺醒」(woke)AI 偏袒自由派觀點的指控。OpenAI 則透過其《模型規範》(Model Spec),承諾將「共同尋求真相」作為核心準則,並計劃發佈更多研究結果,鼓勵其他 AI 開發者建立類似的評估系統。