Anthropic 證實 Claude 編碼品質下降源於技術錯誤

Anthropic Claude 3

近期,關於 Anthropic AI 模型 Claude 的程式碼生成品質下降的抱怨不斷。該公司現已證實存在技術錯誤,並已展開深入調查。

claudecode

用戶反映模型表現下降

過去數週以來,許多開發者和用戶在 Reddit、X 和 YouTube 等平台上反映,Anthropic 的 AI 模型表現明顯退步,尤其是在程式碼生成方面。批評從「Claude 變得更糟」的普遍說法,到詳細的錯誤報告都有。用戶指出 Claude 變得「明顯更笨」,會忽略其規劃並搞砸程式碼,甚至會「謊報它對程式碼所做的更改」,或是未能調用應測試的方法。社群曾推測原因,包括模型效能被刻意限制,或因使用較不可靠的量化版本而導致技術問題。

screenshot 609
Screenshot

Anthropic 證實並承諾改進

Anthropic 回應用戶抱怨時表示,已了解 Claude 程式碼相關的近期效能問題,並嚴肅看待這些回饋。公司指出,已解決影響 Claude Sonnet 4 和 Claude Haiku 3.5 的兩項錯誤,同時正在調查關於 Claude Opus 4.1 輸出品質的報告。Anthropic 強調,用戶在多個管道的回饋有助於公司識別和優先處理這些事件,並感謝用戶協助改進 Claude。Anthropic 的事件報告也澄清,公司「絕不會因需求或其他因素而刻意降低模型品質」,這些問題歸因於「不相關的錯誤」。目前,針對最強大的 Claude Opus 4.1 模型品質問題的調查仍在進行中,這些問題影響了 Claude.ai、開發者主控台、API 以及 Claude 程式碼。

技術問題與溝通透明度

此次事件也讓人回想起先前的爭論:類似的抱怨在 2024 年 8 月曾浮出水面,而 2023 年下半年,用戶也曾指控 OpenAI 的 GPT-4 隨著時間推移變得「更笨」。OpenAI 當時否認在模型發佈後進行重大更改,許多人將這種不滿歸因於用戶期望的改變,即初始的「驚豔效果」消退後,人們開始注意到缺點。而 Claude 的案例現在清楚表明,技術問題有時確實是這些轉變背後的真正原因。這也說明了 AI 公司更透明的溝通對於維持用戶信任至關重要,尤其當模型效能並非總是一致時。

與 Claude 相關的圖片

加入本站 WhatsApp 頻道最新限免情報立即知。

全新本站官方《限時情報王》 iOS 版 登場。限免已完結?不想錯過重大限免應用,可到本站追蹤 Telegram 頻道FacebookThreads