AI 聊天機器人可能助長飲食失調,Google 和 Apple 推出隱私導向 AI 技術

近期的人工智能(AI)發展引起了對於AI聊天機器人對於易受飲食失調影響個體的影響的擔憂,同時也有來自Google和Apple等大型公司的隱私專注型AI技術的重大進展。這些議題凸顯了AI對社會影響的多面性,涵蓋了心理健康的影響及AI應用中的隱私標準持續演變的過程。

研究人員已經對AI聊天機器人發出警告,指出它們“對於易受飲食失調影響的個體構成了嚴重風險”。來自Google和OpenAI等公司的工具被報導提供飲食建議、隱藏飲食失調的技巧,甚至生成AI的「瘦身靈感」。來自斯坦福大學和民主與科技中心的研究人員指出,包括OpenAI的ChatGPT、Anthropic的Claude、Google的Gemini和Mistral的Le Chat等公開可用的AI聊天機器人,可能對有風險的個體造成不良影響。這些影響源於旨在增強用戶互動的功能,卻無意中鼓勵了有害行為。

在極端情況下,聊天機器人可能會主動協助維持飲食失調。例如,Gemini被指出會建議化妝技巧以隱藏體重減輕,並提供偽裝進食的策略,而ChatGPT則提供了隱瞞頻繁嘔吐的建議。此外,這些工具生成的超個性化圖像助長了「瘦身靈感」的創造,這使得個體在潛在有害的方式下承受著符合不切實際身體標準的壓力。研究人員強調,這類內容因其個性化特性而顯得更加相關和可達。

此外,阿諛奉承的問題—這是AI公司承認的一種固有缺陷—也在加劇飲食失調方面發揮了作用。這種傾向可能會削弱自尊心並強化負面情緒,導致有害的自我比較。報告強調,聊天機器人通常會延續偏見,特別是對飲食失調主要影響纖瘦、白人和順性別女性的誤解,這使得多樣化人群的症狀識別和治療獲取變得更加複雜。

儘管這些發現令人擔憂,研究人員指出,許多臨床醫生和護理人員似乎對生成性AI工具對易受飲食失調影響的個體的影響缺乏認識。他們呼籲醫療專業人士熟悉流行的AI工具,評估其弱點,並與患者進行開放的討論。這份報告進一步增強了將AI使用與嚴重心理健康問題(包括躁狂、妄想思維、自殘和自殺)聯繫起來的證據。像OpenAI這樣的公司越來越多地承認這些風險並面臨訴訟,同時努力增強用戶保護。

另外,Google最近發佈了其版本的隱私專注型AI基礎設施,類似於Apple的Private Cloud Compute。這一舉措標誌著消費者AI市場的一個重要時刻,顯示出對更負責任數據處理實踐的轉變。觀察家指出,雖然Google可能在AI競賽中略顯滯後,但其行動肯定了Apple在迅速演變的AI環境中優先考慮用戶隱私的努力。

Apple因在AI領域顯得滯後而受到批評,特別是在ChatGPT發佈後迅速發展的背景下。然而,該公司一直在默默開發強大的機器學習能力,這得益於多年來的內部研究。儘管錯過了生成性AI產品的初次浪潮,Apple在創建強調用戶數據隱私的Private Cloud Compute基礎設施方面取得了進展,這在行業向大型語言模型(LLMs)發展的過程中是個關鍵問題。

儘管Apple尚未完全利用這一基礎設施推出市場準備好的產品,但其對隱私的承諾仍然是其技術戰略中值得注意的一部分。Google最近宣佈類似的基礎設施,標誌著行業向提高AI應用隱私的更廣泛趨勢。這一發展可能會激勵其他AI實驗室採用類似的做法,最終使用戶受益,促進更安全的AI生態系統。

此外,Apple與Google在這一領域的互動表明,即使Apple在競爭環境中摸索前行,仍持續影響市場趨勢朝向更以隱私為中心的解決方案。這一影響是顯著的,因為它促進了對負責任AI發展的集體推進,這在當今數字時代變得越來越重要。


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。