根據最新研究,人工智能大模型(LLM)在接觸低質量數據後,會出現類似人類的認知衰退,這一現象被稱為「LLM腦損傷假說」。研究指出,長期接觸碎片化和低價值的信息會導致模型的推理能力和記憶力下降,甚至出現人格特質的異常。
研究方法與發現
研究者通過選取來自Twitter的高流行但低價值數據進行訓練,結果顯示模型推理能力下降23%、長上下文記憶下降30%。即使在後期重新訓練時使用高質量數據,這些損傷也無法完全修復。研究團隊定義了「垃圾數據」的兩個維度:參與度和語義質量,並使用四個不同的大模型進行實驗。
以下為主要發現:
| 參數 | 受影響程度 |
|---|---|
| 推理能力 | 下降23% |
| 長上下文記憶 | 下降30% |
| 人格特質(自戀、精神病傾向) | 顯著增強 |
研究還發現,模型在接收垃圾數據後,無法進行有效的自我反思來修復認知損傷,顯示出其在處理低質量數據後的脆弱性。這一現象不僅對AI的未來發展提出了挑戰,也讓人重新思考數據質量對智能系統的重要性。
研究團隊由八名成員組成,其中七名為華人,顯示了華人在AI領域的卓越貢獻。
這一研究不僅強調了數據質量在訓練中的關鍵性,還提出了未來在大模型部署中應進行認知測試的重要性,以防止模型的能力退化。




