「新型腦機介面技術助癱瘓患者實時溝通」

一種全新的腦機介面(BCI)系統使一名患有肌萎縮側索硬化症(ALS)的患者能夠實時與家人“對話”。ALS是一種神經系統疾病,會損害大腦和脊髓中的神經細胞,導致肌肉控制能力下降。

根據加州大學戴維斯分校的開發者所述,這項新的“研究性”BCI旨在促進“更快、更自然的對話”。加州大學戴維斯神經假肢實驗室的共同主任David Brandman表示:“我們的聲音是我們身份的一部分。對於生活在神經疾病中的人來說,失去說話的能力是毀滅性的。”他補充道:“這項研究的結果為那些想要說話卻無法的人帶來了希望。我們展示了一名癱瘓者如何能夠用合成的聲音進行對話。這種技術對於生活在癱瘓中的人來說可能會帶來變革。”

研究人員在參與者嘗試大聲說出電腦屏幕上顯示的句子時收集數據。現有的語音神經假肢(將大腦活動轉換為語音的BCI)面臨著轉換速度慢的限制,通常需要幾秒鐘的時間才能將大腦信號轉變為可聽的聲音,這種延遲妨礙了自然對話。

“這種新的實時語音合成更像是一個語音通話。通過即時語音合成,神經假肢使用者將能夠更好地參與對話。例如,他們可以打斷別人,而他人也不太可能意外地打斷他們,”加州大學戴維斯神經外科系的助理教授Sergey Stavisky表示。

該設備以卓越的精確度解碼大腦信號,涉及在大腦的語音產生區域外科植入微型電極陣列。256個電極捕捉數百個神經元的活動,將這些信號傳輸到計算機,然後進行解釋和重建聲音。

研究人員在BrainGate2臨床試驗中納入了一名45歲的男性,以進行系統訓練。研究人員在屏幕上展示句子,並指示參與者嘗試大聲說出這些句子。一些句子具有特定的語調(例如,問題與陳述之間的區別),同時記錄他的腦部活動。BCI迅速將該男子的大腦信號轉換為可聽的語音,延遲僅為四十分之一秒,與我們聽到自己聲音的速度相似,這意味著真正的自發對話。

他甚至能夠通過唱基本旋律來調整聲音的音調。研究人員指出,BCI合成的聲音在很大程度上是可以理解的,聽者能夠正確識別近60%的單詞。

先進的人工智能(AI)算法是實時語音生成的關鍵。這些算法通過將參與者的神經放電模式與他們意圖發出的語音聲音進行匹配來進行訓練。項目科學家Maitreyee Wairagkar表示:“在實時合成聲音的主要障礙是無法確切知道失語者何時及如何嘗試說話。我們的算法將神經活動映射到每一時刻的意圖聲音,這使得合成語音中的細微差別成為可能,並使參與者能夠控制其BCI聲音的節奏。”

研究人員強調,腦與聲音的神經假肢仍處於早期階段。下一步將涉及在更多參與者中複製這些驚人的結果,包括那些因中風等其他原因導致失語的人。這些研究結果已發表在《自然》期刊上。

日本電話卡推介 / 台灣電話卡推介
一㩒即做:香港網速測試 SpeedTest HK


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。