正在閱讀:

Meta開發(fā)AI“讀心術”系統,仿真大腦模型,大腦活動直接轉文字

掃一掃下載界面新聞APP

Meta開發(fā)AI“讀心術”系統,仿真大腦模型,大腦活動直接轉文字

這項技術證明科學界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

編譯 | 智東西 吳菲凝

編輯 | 李水青

智東西4月3日消息,據《華爾街日報》報道,Meta正在開發(fā)一個系統來讀取人腦中的想法,該項目利用AI來幫助科學家們研究大腦中神經元,通過一個仿真人腦模型,就能實現人的大腦活動在無需打字、語音輸入的情況下直接轉文字。

智東西發(fā)現,去年,Meta AI實驗室曾公開了一項名為“大腦信號讀心術(Brain Signal Reading)”的研究成果。研究人員利用腦電圖和腦磁圖兩種非侵入式技術獲取數據,讓自主監(jiān)督學習AI工具wave2vec 2.0在開源錄音上進行訓練,訓練數據集中包含169名志愿者在聽到有聲讀物和單句時的大腦活動錄音。

通過近150個小時的錄音,算法像懂讀心術一樣能夠推斷出人們最有可能聽到的詞。這項技術證明科學界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

01.Meta研究“讀心術”,構建仿真大腦模型

每年有近7千萬人遭受創(chuàng)傷性腦損傷,導致其今后無法再通過語言、打字甚至是手勢交流。研究人員正努力從無創(chuàng)大腦活動中解碼語言來改善這部分人的生活。

據悉,大腦解碼技術可以通過不同的方法來實現,主要有三類:一是侵入式腦機接口,二是非侵入式腦機接口,三是用于研究神經元活動的大腦解碼技術。Meta在研究中主要通過非侵入式腦機接口來實現腦電波讀取。在這項研究中,研究人員們使用的是從被試者那里收集來的大腦信號數據,被試者坐在非侵入式腦部掃描儀前聽單詞和短語,然后掃描儀來捕捉他們的腦電波數據。

掃描儀可以分為兩種:一種是為人熟知的嵌入式電極,被稱為“EEG(腦電圖Electroencephalogram)”;另一種是MEG(腦磁圖Magnetoencephalography),兩種掃描儀分別測量由神經元活動引起的電場和磁場的波動。在實踐中,這兩個系統使用數百個傳感器,每秒鐘可以拍攝大約1000張宏觀大腦活動的快照,研究人員再將這些EEG和MEG數據記錄輸入到一個仿真大腦模型中。

由于個人的大腦解剖結構、各腦區(qū)神經功能的位置和時間的差異,以及記錄過程中傳感器的位置的不同,每個人的腦電圖記錄也完全不同。在實踐中,分析大腦數據通常需要在仿真大腦上重新調整信號,這是一個較復雜的工程管道。在以前的研究中,大腦解碼器是在少量的錄音中訓練,然后預測一組有限的語音特征,如部分語音類別或單詞。

在這次研究中,研究人員設計了一個新主體嵌入層,該層經過端到端的訓練,可以將所有腦電波記錄對齊在一個公共空間當中。為了分析這些腦信號數據,研究人員使用了自我監(jiān)督學習的AI模型wave2vec 2.0,該模型不用指示就能從巨大的數據池中抓取數據,可從噪音中識別正確的語音,還能解析動物對話的含義。為了從非侵入式大腦信號中解碼語音,研究人員訓練出了一個可對比學習的模型,把大腦活動與相似的語音對齊,當兩者保持大體一致時,就能找出仿真大腦模型輸出的對應語音。

02.打造通用腦語言解碼器,大腦活動直接轉文字

Meta AI團隊在之前的工作中用wave2vec 2.0證明了該算法可以生成與大腦類似的語音電波。據Meta研究團隊稱,在訓練中系統執(zhí)行的是零樣本分類,只要提供一個大腦活動片段,系統就能從眾多音頻片段中確定這個人實際聽到的是哪一個片段,算法就能推斷人們最有可能聽到的詞。

Meta的科學家亞歷山大·德福塞斯(Alexandre Défossez)是這項研究的團隊成員之一,他說這項工作的最終目標是創(chuàng)建一個通用腦語言解碼器,它可以直接將我們的大腦活動轉化為文字。最終的研究結果表明,訓練有素的自我學習AI模型可以成功從無創(chuàng)大腦的活動記錄中解碼感知到的語音。但這還只是第一步,目前的研究專注于解碼語音感知,但最終的現實目標是要實現與患者的交流,將研究擴展到語音生成。

在可見的未來,人們只要戴著一個腦電圖帽,就能夠給朋友發(fā)短信。德福塞斯補充說,這項技術可能會徹底改變那些無法交流的患者的生活,他們目前已公開分享這項研究,并加快進展來應對未來的挑戰(zhàn)。Meta這項研究充分證明了AI可以在合理應用下讓人類更好地了解自己,不僅是進一步推動技術的進步,還可以創(chuàng)造出人類與計算機交互的新方式。

03.基于強大數據處理能力,AI助人類了解大腦機制

神經科學推動AI發(fā)展在未來將釋放出巨大的潛力,但大多數AI工程師都不知道如何借助神經科學來助力AI發(fā)展,也不明白人工神經元網絡和動物神經元網絡的行為特征有何分別。加州大學伯克利分校心理學教授塞萊斯特·基德(Celeste Kidd)通過一項實驗幫助工程師們更好理解了神經科學、計算科學等領域是如何協同推進AI發(fā)展的。

在研究中,通過一系列關聯測試,基德積累了一個數據池,把人們對于一個問題的不同看法進行了分類?;峦ㄟ^研究人們對某些政治家的看法,得出一個結論:人們最容易在一些帶有道德評判色彩的詞語中產生意見分歧,這本是人類特有的思考行為,但那些已經通過具身圖靈測試(The Embodied Turing Test )的AI也能達到。

基德及其團隊總結出,人們往往不會對常見物體的基本特征達成一致。即使對于雞、鯨魚和鮭魚這樣常見的動物,人們對它們的看法也不盡相同。這個研究結果由“聚類模型”輔助得出,該模型是多個AI模型的實現基礎。雖然這個觀察看上去并不深刻,但結果表明,AI大腦解碼研究的可信度遠高于心理學家們之前所認為的。

基德稱,AI最重要的能力就是使諸如OpenAI的聊天機器人ChatGPT、谷歌聊天機器人Bard和微軟的新版搜索引擎Bing等新研究成為可能。在她看來,現代計算機系統擁有遠超過去的數據處理能力,這讓一切研究都有機會成為現實,這種能力開辟了很多的可能性,無論是在生物學、醫(yī)學還是認知科學領域。

普林斯頓大學神經科學助理教授塔蒂亞娜·恩格爾(Tatiana Engel)使用了與大多數AI同類型的人工神經元網絡。她的團隊用這些人工神經元網絡來解釋動物大腦中數百個神經元的電信號,并訓練人工神經元網絡模仿動物神經元網絡行為特征,讓它們做動物的動作,比如游泳和蠕動。

在研究中,團隊發(fā)現,這些人工神經元網絡會通過模擬來不斷接近動物神經元的組織方式。恩格爾博士稱,大腦的神經網絡要更加復雜,但人工神經元網絡作為一種模擬系統,既足夠簡單,也能夠無限接近動物神經元的生物學價值,可以通過模仿來告訴我們真實大腦是如何工作的。這就說明,思考是腦電波向大腦發(fā)送信號,形成一個由神經元構成的復雜代碼來影響我們的行為。

這種結論與神經科學家之前的結論相反:他們曾認為存在影響我們應該如何做決定的神經元。但實際上,并不存在“吃巧克力”和“不吃巧克力”的神經元。恩格爾博士稱,AI能幫助人們知道大腦的內部構造和運作情況。

04.結語:機器解碼大腦信號,“讀心專家”成現實

當大量的腦電波圖像數據用于訓練通用腦模型時,我們將會更好地理解人類思維的形成過程和內部發(fā)展變化,并將其用于改進人工智能算法的性能和其他領域。

在可見的未來,大腦解碼技術的研究和發(fā)展將對認知科學和人工智能產生深遠影響,不僅為神經系統疾病治療提供新發(fā)展機遇,而且能為深受語言困擾的患者帶來交流的可能性。但與此同時,EEG、MEG等數據獲取困難、大腦數據整合難度大以及腦數據的隱私保護問題等挑戰(zhàn)接踵而來,同樣需要多加關注。

來源:《華爾街日報》、Meta AI官網

本文為轉載內容,授權事宜請聯系原著作權人。

Facebook

5.4k
  • Meta宣布將重啟面部識別技術,以打擊詐騙
  • 美股三大指數均錄得周線六連漲,標普500指數、道指均續(xù)創(chuàng)歷史收盤新高

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

Meta開發(fā)AI“讀心術”系統,仿真大腦模型,大腦活動直接轉文字

這項技術證明科學界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

編譯 | 智東西 吳菲凝

編輯 | 李水青

智東西4月3日消息,據《華爾街日報》報道,Meta正在開發(fā)一個系統來讀取人腦中的想法,該項目利用AI來幫助科學家們研究大腦中神經元,通過一個仿真人腦模型,就能實現人的大腦活動在無需打字、語音輸入的情況下直接轉文字。

智東西發(fā)現,去年,Meta AI實驗室曾公開了一項名為“大腦信號讀心術(Brain Signal Reading)”的研究成果。研究人員利用腦電圖和腦磁圖兩種非侵入式技術獲取數據,讓自主監(jiān)督學習AI工具wave2vec 2.0在開源錄音上進行訓練,訓練數據集中包含169名志愿者在聽到有聲讀物和單句時的大腦活動錄音。

通過近150個小時的錄音,算法像懂讀心術一樣能夠推斷出人們最有可能聽到的詞。這項技術證明科學界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

01.Meta研究“讀心術”,構建仿真大腦模型

每年有近7千萬人遭受創(chuàng)傷性腦損傷,導致其今后無法再通過語言、打字甚至是手勢交流。研究人員正努力從無創(chuàng)大腦活動中解碼語言來改善這部分人的生活。

據悉,大腦解碼技術可以通過不同的方法來實現,主要有三類:一是侵入式腦機接口,二是非侵入式腦機接口,三是用于研究神經元活動的大腦解碼技術。Meta在研究中主要通過非侵入式腦機接口來實現腦電波讀取。在這項研究中,研究人員們使用的是從被試者那里收集來的大腦信號數據,被試者坐在非侵入式腦部掃描儀前聽單詞和短語,然后掃描儀來捕捉他們的腦電波數據。

掃描儀可以分為兩種:一種是為人熟知的嵌入式電極,被稱為“EEG(腦電圖Electroencephalogram)”;另一種是MEG(腦磁圖Magnetoencephalography),兩種掃描儀分別測量由神經元活動引起的電場和磁場的波動。在實踐中,這兩個系統使用數百個傳感器,每秒鐘可以拍攝大約1000張宏觀大腦活動的快照,研究人員再將這些EEG和MEG數據記錄輸入到一個仿真大腦模型中。

由于個人的大腦解剖結構、各腦區(qū)神經功能的位置和時間的差異,以及記錄過程中傳感器的位置的不同,每個人的腦電圖記錄也完全不同。在實踐中,分析大腦數據通常需要在仿真大腦上重新調整信號,這是一個較復雜的工程管道。在以前的研究中,大腦解碼器是在少量的錄音中訓練,然后預測一組有限的語音特征,如部分語音類別或單詞。

在這次研究中,研究人員設計了一個新主體嵌入層,該層經過端到端的訓練,可以將所有腦電波記錄對齊在一個公共空間當中。為了分析這些腦信號數據,研究人員使用了自我監(jiān)督學習的AI模型wave2vec 2.0,該模型不用指示就能從巨大的數據池中抓取數據,可從噪音中識別正確的語音,還能解析動物對話的含義。為了從非侵入式大腦信號中解碼語音,研究人員訓練出了一個可對比學習的模型,把大腦活動與相似的語音對齊,當兩者保持大體一致時,就能找出仿真大腦模型輸出的對應語音。

02.打造通用腦語言解碼器,大腦活動直接轉文字

Meta AI團隊在之前的工作中用wave2vec 2.0證明了該算法可以生成與大腦類似的語音電波。據Meta研究團隊稱,在訓練中系統執(zhí)行的是零樣本分類,只要提供一個大腦活動片段,系統就能從眾多音頻片段中確定這個人實際聽到的是哪一個片段,算法就能推斷人們最有可能聽到的詞。

Meta的科學家亞歷山大·德福塞斯(Alexandre Défossez)是這項研究的團隊成員之一,他說這項工作的最終目標是創(chuàng)建一個通用腦語言解碼器,它可以直接將我們的大腦活動轉化為文字。最終的研究結果表明,訓練有素的自我學習AI模型可以成功從無創(chuàng)大腦的活動記錄中解碼感知到的語音。但這還只是第一步,目前的研究專注于解碼語音感知,但最終的現實目標是要實現與患者的交流,將研究擴展到語音生成。

在可見的未來,人們只要戴著一個腦電圖帽,就能夠給朋友發(fā)短信。德福塞斯補充說,這項技術可能會徹底改變那些無法交流的患者的生活,他們目前已公開分享這項研究,并加快進展來應對未來的挑戰(zhàn)。Meta這項研究充分證明了AI可以在合理應用下讓人類更好地了解自己,不僅是進一步推動技術的進步,還可以創(chuàng)造出人類與計算機交互的新方式。

03.基于強大數據處理能力,AI助人類了解大腦機制

神經科學推動AI發(fā)展在未來將釋放出巨大的潛力,但大多數AI工程師都不知道如何借助神經科學來助力AI發(fā)展,也不明白人工神經元網絡和動物神經元網絡的行為特征有何分別。加州大學伯克利分校心理學教授塞萊斯特·基德(Celeste Kidd)通過一項實驗幫助工程師們更好理解了神經科學、計算科學等領域是如何協同推進AI發(fā)展的。

在研究中,通過一系列關聯測試,基德積累了一個數據池,把人們對于一個問題的不同看法進行了分類?;峦ㄟ^研究人們對某些政治家的看法,得出一個結論:人們最容易在一些帶有道德評判色彩的詞語中產生意見分歧,這本是人類特有的思考行為,但那些已經通過具身圖靈測試(The Embodied Turing Test )的AI也能達到。

基德及其團隊總結出,人們往往不會對常見物體的基本特征達成一致。即使對于雞、鯨魚和鮭魚這樣常見的動物,人們對它們的看法也不盡相同。這個研究結果由“聚類模型”輔助得出,該模型是多個AI模型的實現基礎。雖然這個觀察看上去并不深刻,但結果表明,AI大腦解碼研究的可信度遠高于心理學家們之前所認為的。

基德稱,AI最重要的能力就是使諸如OpenAI的聊天機器人ChatGPT、谷歌聊天機器人Bard和微軟的新版搜索引擎Bing等新研究成為可能。在她看來,現代計算機系統擁有遠超過去的數據處理能力,這讓一切研究都有機會成為現實,這種能力開辟了很多的可能性,無論是在生物學、醫(yī)學還是認知科學領域。

普林斯頓大學神經科學助理教授塔蒂亞娜·恩格爾(Tatiana Engel)使用了與大多數AI同類型的人工神經元網絡。她的團隊用這些人工神經元網絡來解釋動物大腦中數百個神經元的電信號,并訓練人工神經元網絡模仿動物神經元網絡行為特征,讓它們做動物的動作,比如游泳和蠕動。

在研究中,團隊發(fā)現,這些人工神經元網絡會通過模擬來不斷接近動物神經元的組織方式。恩格爾博士稱,大腦的神經網絡要更加復雜,但人工神經元網絡作為一種模擬系統,既足夠簡單,也能夠無限接近動物神經元的生物學價值,可以通過模仿來告訴我們真實大腦是如何工作的。這就說明,思考是腦電波向大腦發(fā)送信號,形成一個由神經元構成的復雜代碼來影響我們的行為。

這種結論與神經科學家之前的結論相反:他們曾認為存在影響我們應該如何做決定的神經元。但實際上,并不存在“吃巧克力”和“不吃巧克力”的神經元。恩格爾博士稱,AI能幫助人們知道大腦的內部構造和運作情況。

04.結語:機器解碼大腦信號,“讀心專家”成現實

當大量的腦電波圖像數據用于訓練通用腦模型時,我們將會更好地理解人類思維的形成過程和內部發(fā)展變化,并將其用于改進人工智能算法的性能和其他領域。

在可見的未來,大腦解碼技術的研究和發(fā)展將對認知科學和人工智能產生深遠影響,不僅為神經系統疾病治療提供新發(fā)展機遇,而且能為深受語言困擾的患者帶來交流的可能性。但與此同時,EEG、MEG等數據獲取困難、大腦數據整合難度大以及腦數據的隱私保護問題等挑戰(zhàn)接踵而來,同樣需要多加關注。

來源:《華爾街日報》、Meta AI官網

本文為轉載內容,授權事宜請聯系原著作權人。