在經歷了一場腦幹中風之後的十八年,Ann Johnson 終於再次聽到了自己的聲音,這得益於一種能夠直接從腦部活動解碼語音的腦-電腦介面(BCI)。當年,這位來自加拿大薩斯喀徹溫省的高中教師和教練在 2005 年的中風後罹患了鎖定綜合症,這是一種罕見的病症,患者能保持意識卻無法說話或移動。此後,Johnson 只能透過眼動追蹤系統以每分鐘 14 個字的速度溝通,這遠低於正常會話速度約 160 個字每分鐘。這樣的交流方式無疑極其不便,讓她在與他人互動時面臨重重挑戰。
2022 年,Johnson 成為加州大學伯克利分校及舊金山分校研究團隊的臨床試驗第三位參與者,該項目旨在為重度癱瘓患者恢復語音能力。研究團隊使用了一種神經假體技術,這種技術可以從語音運動皮層中記錄信號,繞過受損的神經通路來產生可聽見的語音。這項技術的關鍵在於一個植入裝置,這個裝置位於大腦的語音產生區域上方,當 Johnson 嘗試說話時,該植入裝置能夠檢測到神經活動,並將信號傳送到連接的計算機上。
這個系統最初使用的是序列到序列的人工智能模型,需要整個句子才能產生輸出,導致了八秒的延遲。然而,研究團隊在 2025 年 3 月的《自然神經科學》期刊上報導,他們已經轉換為流式架構,這使得近乎實時的翻譯成為可能,延遲縮短至僅約一秒。為了個性化這一體驗,研究人員從 Johnson 2004 年婚禮演講的錄音中重建了她的聲音。她還選擇了一個能夠模擬她外貌的數位化身,這個數位化身能夠表達如微笑或皺眉等面部表情,讓交流更加自然。
研究小組的目標是使神經假體變得「即插即用」,將其從實驗系統轉變為標準的臨床工具。未來的改進可能包括無線植入物,這樣就不需要直接的計算機連接,還有更具真實感的數位化身,以便實現更加自然的互動。該團隊預見到數位「克隆」的出現,這不僅能夠複製使用者的聲音,還能夠重現他們的對話風格和視覺提示。這一突破可能會幫助一個相對小但極其脆弱的人群,包括因中風、肌萎縮側索硬化症(ALS)或受傷而喪失說話能力的人,快速恢復更自然的溝通能力。研究人員強調,該系統僅在參與者有意識地試圖說話時才會運作,這樣能夠保護用戶的主權和隱私。
對於 Johnson 而言,這次試驗改變了她的生活。她在加州大學舊金山分校的聲明中表示:「我希望患者們看到我,知道他們的生活並沒有結束。」她希望有一天能夠在康復中心擔任輔導員,利用這種神經假體與客戶交流。隨著延遲時間縮短至約一秒以及人工智能建模的持續進步,研究人員相信,實用的實時語音恢復技術可能在幾年內就會到來,徹底改變科技如何賦予那些失去自己聲音的人的語言能力。




