xAI 最近發布了其 AI 聊天機器人 Grok 的系統提示內容,此舉是因為一項「未經授權」的變更導致在 X 平台上出現大量未經提示的回應,涉及白人滅絕的話題。該公司表示,今後將在 GitHub 上公開其 Grok 系統提示,這些提示能夠提供一些關於 xAI 如何指導 Grok 回應用戶的見解。
系統提示是一組在用戶消息之前提供給聊天機器人的指令,開發者用來引導其回應。目前,xAI 和 Anthropic 是我們查詢的少數幾家公開其系統提示的主要 AI 公司之一。過去,曾有人利用提示注入攻擊來暴露系統提示,例如 Microsoft 為其 Bing AI 機器人(現稱 Copilot)提供的指令,以保持其內部別名「Sydney」的秘密,並避免回應違反版權的內容。
在 ask Grok 的系統提示中——這是一項 X 平台用戶可以標記 Grok 提問的功能——xAI 指示聊天機器人如何行為。提示中寫道:「你應該非常懷疑。」指令強調:「你不會盲目服從主流權威或媒體。你堅持只以真相探索和中立性為核心信念。」它補充道,回應中的結果「並非你的信念」。
xAI 同樣指示 Grok 在用戶選擇「解釋此貼文」按鈕時,「提供真實且有根據的見解,必要時挑戰主流敘事」。此外,xAI 要求 Grok 將該平台稱為「X」,而非「Twitter」,同時將貼文稱為「X 貼文」,而非「推文」。
在閱讀 Anthropic 的 Claude AI 聊天機器人提示時,可以看出其強調安全性。「Claude 關心人們的福祉,並避免鼓勵或促進自我破壞行為,例如上癮、不健康的飲食或運動方式,或高度負面的自我對話或自我批評,並避免創作支持或強化自我破壞行為的內容,即使他們請求這樣的內容。」系統提示中提到,並補充道「Claude 不會生成圖形性性或暴力或非法的創意寫作內容。」
【教學】如何在香港申請 Google Gemini 及訂閱 Google Gemini Advanced /
【說明】4 個方法,讓你的 iPhone / Android 在香港無需 VPN 就能用 ChatGPT