4 個 ChatGPT 給你錯誤答案的原因

使用 ChatGPT 聊天機械人的時候,為了獲得更好的答案,你應該提供詳細而具體的提示,以便讓 ChatGPT 了解你需要的訊息和上下文。避免使用模糊或不明確的提示,並注意到 ChatGPT 可能無法訪問你需要的全部訊息。此外,與 ChatGPT 進行一對一的交流將會更好地優化其輸出。

雖然 ChatGPT 據說懂得很多,但是你需要注意到,在與這個聊天機械人交互的過程中,在獲得你需要的答案方面可能有些棘手。但在跑回 Google 搜索之前,有一些問題你可以解決,以獲得更好的答案。

你的提示過於簡短

由於 ChatGPT 是一個聊天機械人,你可能認為你的提示應該是簡短而富有交互性。當然,這並沒有 甚麼問題。不過,你需要注意到,你可能沒有為 ChatGPT 提供足夠的訊息,以便它為你提供所需的響應。

詳細說明你想要的內容(積極提示)和你不想要的內容(負面提示),同時展示更廣闊的畫面以供 AI 使用。在編寫提示時,最好要偏向寫出更長和更詳細的提示,而不是你認為必要的那樣簡單而粗略。

你不夠具體

對於像 ChatGPT 這樣擁有驚人知識和數據的大型語言模型 (LLMs),如果你的問題太寬泛,那麼很難為你提供實際需要的輸出。

例如,這些提示過於含糊:

“告訴我關於歷史的東西。”
“你能告訴我有關科學的知識嗎?”
“跟我聊一聊科技。”
“給我講個故事。”
“有哪些成功的祕訣?”
“你能跟我聊聊未來嗎?”
“我如何才能快樂?”
“哪些書是值得一讀的?”
“我應該怎麼規劃我的人生?”
“我如何才能提高工作效率?”

因此,你應該使用這些更具體的提示:

“告訴我有關第二次世界大戰的起因和影響。”
“可再生能源的優缺點是 甚麼?”
“能否解釋人工智能的最新發展及其對社會的潛在影響?”
“給我講一個關於一個小女孩在樹林裏發現神祕物品的故事。”
“可以提供一些在平衡工作和生活方面實用的時間管理策略嗎?”
“如今的空間探索方面有哪些最新進展,它們將怎樣為未來的發現奠定基礎?”
“有哪些基於證據的實踐方式可以提高人的心理健康?”
“一些探討生命意義和人類條件的引人深思的書籍?”
“如何確定我的個人價值並將其與職業目標相一致?”
“有哪些實際的方法可以克服拖延症併集中精力實現目標?”

提示:以上這兩組例子都是由 ChatGPT 使用 “我需要一些對於 ChatGPT 提示來說不夠具體且無法獲得所需輸出的例子” 和 “針對這些提示,提供更好的、更具體的版本” 生成的。不要害怕使用 ChatGPT 創建提示,或者向它詢問好的提示示例(你可以修改它們後重用)。

通過提出具體問題,你將得到更好的響應,而且在大多數情況下,你越具體,得到的響應也會越好。

提供模糊的提示

LLMs 之所以如此強大,是因為人類的語言是複雜的,這是本世紀最大的不言而喻!不幸的是,這種複雜性也意味着你的提示可能存在很多模糊性。

出現模糊提示的原因之一是因為你的提示邏輯或措辭存在問題,但更常見的是因為你提出的問題有很多可能的答案,以至於 ChatGPT 無法知道你真正需要的答案。

例如,如果你問 “ 甚麼是烹製雞肉的最佳方法?”,ChatGPT 就要面對 “最佳” 各種不同的定義。

但是,如果你問 “ 甚麼是烹製雞肉的最佳健康方式?” 你就能夠更加具體。如果你問 “ 甚麼是適合糖尿病患者烹製雞肉的最佳方法?”,你就可以真正找到你需要的答案。

缺乏上下文

出現模糊提示的主要原因是缺乏上下文,但是任何類型的提示都可以受益於提供更多的上下文訊息。 ChatGPT 非常關注上下文線索,因此你提供的上下文越多,你得到的結果就會越好。

當你要求的是撰寫提綱類似的內容時,你可以清楚地看到這一點。如果你要求一個博客文章的提綱,那麼你得到的結果就會與要求書籍或學術文章的提綱完全不同。

如果你要求 ChatGPT 將文本轉換為 YouTube 影片的腳本,那麼你得到的輸出完全不同於要求電視節目的腳本。

這些都是簡單的示例,但是 ChatGPT 可以接收到微妙的上下文線索,因此,你最好養成提供更多上下文訊息的習慣,用能給軟件提供線索的術語和關鍵字來描述你想做的事情。