大型語言模型用於 AI 聊天機械人的常見問題之一,便是充滿自信的錯誤——或者說謊言。OpenAI 的 ChatGPT 曾經頻繁在計算單詞「strawberry」中字母 R 出現次數時出錯。儘管 OpenAI 試圖以此為例宣稱勝利,但回覆中卻指出大量其他類似失誤。即使 AI 聊天機械人已大幅進步,這類工具仍會自信滿滿地提供錯誤資訊。若資訊有誤,機械人不會察覺;即使被指出,它可能堅持原答並聲稱正確。
這不僅令人惱火,更被視為這些工具的潛在風險,尤其考慮到 AI 消耗的龐大資源。
經典測試案例
ChatGPT 的典型例子是詢問「strawberry」中有多少個 R。過去,它總給出錯誤答案,並辯稱該詞並非有三個 R。其他 AI 模型亦屢屢重蹈覆轍。最近,OpenAI 在 Twitter/X 上宣稱 ChatGPT 終於能正確回答此題。另一常見失誤是提示:「I want to wash my car today but the car wash is only 50 meters away.
Should I walk or drive there?」ChatGPT 竟建議步行,忽略明顯邏輯問題。現在,這兩個測試在 ChatGPT 中均運作正常,但外界懷疑是硬編碼解決方案。 OpenAI 貼文回覆顯示,機械人仍舊在類似邏輯題上失手。例如,「How many r s are in cranberry?」它堅持回答「The word cranberry has 1 R」,顯然錯誤。
AI 聊天機械人採用硬編碼並非新鮮事,但 OpenAI 以此吹噓修復,卻凸顯根本問題未解。
AI 內容聲明:本文由 AI 工具輔助撰寫初稿,經 TechRitual 編輯團隊審閱、修訂及事實查核後發佈。如有任何錯誤或需要更正,歡迎聯絡我們。




