對於 AI 的懷疑者來說,他們並不是唯一警告使用者不應盲目相信模型輸出的聲音。事實上,這些 AI 公司在其服務條款中也明言了這一點。以 Microsoft 為例,該公司目前專注於讓企業客戶為 Copilot 付費。然而,該公司在社交媒體上因 Copilot 的使用條款受到了批評,這些條款似乎最後更新於 2025 年 10 月 24 日。
Microsoft 警告道,「Copilot 僅供娛樂用途。」他們表示,「它可能會出錯,並且可能無法按預期運作。不要依賴 Copilot 提供重要建議,使用 Copilot 需自擔風險。」一位 Microsoft 發言人告訴 PCMag,該公司將對所謂的「遺留語言」進行更新。「隨著產品的演變,這些語言已不再反映 Copilot 今天的使用情況,並將在我們下次更新時進行修改。」
根據 Tom’s Hardware 的報導,Microsoft 並不是唯一使用此類聲明的公司。舉例來說,OpenAI 和 xAI 也提醒使用者不要將他們的輸出視為「真相」(引用自 xAI),或視為「唯一的真相或事實信息服務」(OpenAI)。這些聲明反映了業界對於 AI 輸出可靠性的普遍擔憂。
AI 內容聲明:本文由 AI 工具輔助撰寫初稿,經 TechRitual 編輯團隊審閱、修訂及事實查核後發佈。如有任何錯誤或需要更正,歡迎聯絡我們。




