最近在社交媒體上出現了有關 Gmail 將用戶電子郵件用於訓練 Google 人工智能模型的報導,這些資訊可能讓人感到擔憂。不過,Google 表示這些報導存在誤導性。上週,社交媒體上出現了許多帖子,指控 Google 透過其 Workspace 的智能功能,自動將 Gmail 用戶納入 AI 模型的訓練中。
某些媒體,如 Malwarebytes,曾經報導了這一消息,但之後已經對其報導進行了更正。面對這種情況,Google 於上週五透過 Gmail 的 Twitter 帳戶發表了聲明,對這些報導進行了反駁,並指出這些智能功能並不是新鮮事物。
雖然 Google 的聲明明確,但使用「誤導性」這個詞仍然讓人感到有些不安。根據 Google 的說法,Gmail 的訊息並不會用於訓練 Gemini,並且用戶在 Gmail 中的設定並未被調整以允許 AI 模型的訓練。如果公司在條款和政策上有任何變更,將會發出清晰而直接的公告。
消費者對於自己的數據是否被用來支持 AI 模型的擔憂是可以理解的,尤其在某些情況下,這確實是發生過的。然而,這類帖子與 Facebook 的「分享此帖子以阻止(插入壞變更)」的迷因有一些相似之處,這些迷因在 2010 年代廣泛流傳。如今,像 Twitter 這樣的平台允許用戶從帖子中獲利,使得這類詐騙更具經濟動機,即便這些 repost 的背後是出於真實的擔憂。
儘管過去十多年來大型科技公司行為的確使消費者對這些公司產生了不信任,但要記住,社交媒體上的陌生人同樣可能會對你撒謊,甚至更有可能。保持警惕,進行自我查證是必要的,但對於這類以社交媒體為中心的帖子的健康懷疑也是同樣重要的。




