中國研究人員聲稱已找到證據,顯示大型語言模型(LLMs)能夠像人類一樣理解和處理自然物體。他們表示,這一能力是自發性的,甚至不需要明確的訓練。
來自中國科學院和廣州南方科技大學的研究人員指出,一些人工智能(如 ChatGPT 或 Gemini)能夠反映人類認知的一個關鍵部分,即信息的分類。
他們的研究發表在《Nature Machine Intelligence》上,調查了 LLM 模型是否能夠發展出類似於人類物體表徵的認知過程。換句話說,研究旨在了解 LLM 是否能根據功能、情感、環境等來識別和分類事物。
為了驗證這一點,研究人員給 AI 提供了「找不同」任務,使用文本(針對 ChatGPT-3.5)或圖像(針對 Gemini Pro Vision)。為此,他們收集了 470 萬個回答,涵蓋 1,854 種自然物體(如狗、椅子、蘋果和汽車)。
研究發現,所創建的模型中產生了 66 個概念維度,以人類的方式組織物體。這些維度超越了基本類別(如「食物」),涵蓋了複雜的屬性,包括質地、情感相關性和適合兒童的程度。
科學家們還發現,結合文本和圖像的多模態模型與人類思維的對應度更高,因為 AI 同時處理視覺和語義特徵。此外,研究團隊發現,腦部掃描數據(神經影像學)顯示 AI 和人類大腦對物體的反應之間存在重疊。
這些發現提供了有趣的證據,表明 AI 系統可能具備真正的「理解」能力,而不僅僅是模仿反應。這也暗示未來的 AI 可能具備更直觀、與人類兼容的推理能力,這對於機器人技術、教育和人機協作至關重要。
然而,也必須指出,LLMs 並不以情感或經驗的方式理解物體。
AI 的理解不是基於生活經驗
AI 通過識別語言或圖像中的模式來工作,這些模式通常與人類概念密切相關。儘管這在表面上看似是「理解」,但並不是基於生活經驗或基於感官運動的互動。
此外,某些 AI 表徵的部分可能與腦部活動相關,但這並不意味著它們能像人類一樣「思考」或共享相同的結構。
可以說,它們更像是人類模式識別的複雜仿製品,而非思考機器。LLMs 更像是由數百萬本書籍和圖片組成的鏡子,根據學習到的模式反映用戶的模型。
研究結果表明,LLMs 和人類可能在某些功能模式上趨於一致,例如將世界組織成類別。這挑戰了 AI 只能通過重複數據中的模式來「顯得聰明」的觀點。
如果如研究所述,LLMs 開始獨立構建世界的概念模型,這將意味著我們可能正逐步接近人工通用智能(AGI)——一種能夠像人類一樣在多個任務中思考和推理的系統。
日本電話卡推介 / 台灣電話卡推介
一㩒即做:香港網速測試 SpeedTest HK




