3月28日,科技媒體TheDecoder報道,Meta基礎(chǔ)人工智能研究團(tuán)隊(FAIR)開源了一款名為TRIBEv2的全新AI模型,該模型能夠精準(zhǔn)預(yù)測人類大腦對圖像、聲音和文本的反應(yīng)。TRIBEv2的核心優(yōu)勢在于無需實際測量即可預(yù)測大腦對視覺、聽覺和語言刺激的反應(yīng),有望改變傳統(tǒng)神經(jīng)科學(xué)研究的局限性。模型通過三個預(yù)訓(xùn)練大模型提取特征,再由Transformer架構(gòu)整合信息,輸出包含7萬個“體素”的大腦活動圖。TRIBEv2在預(yù)測大腦活動方面表現(xiàn)出色,其預(yù)測結(jié)果比單人真實的腦掃描圖更清晰,且準(zhǔn)確度遠(yuǎn)超傳統(tǒng)線性模型。
TRIBEv2模型揭示了不同感官如何激活特定的大腦區(qū)域,例如單獨輸入音頻會激活聽覺皮層,而多模態(tài)數(shù)據(jù)輸入時,大腦顳葉、頂葉和枕葉交界處的預(yù)測準(zhǔn)確率可提升50%。在視覺實驗中,模型識別了面部、地點、身體和角色的專門大腦區(qū)域。盡管TRIBEv2表現(xiàn)出色,但它依賴存在數(shù)秒延遲的血流數(shù)據(jù),無法捕捉毫秒級的神經(jīng)動態(tài),且缺乏觸覺和嗅覺維度。
Meta已全面開源TRIBEv2模型的代碼與權(quán)重,并計劃探索其在規(guī)劃腦科學(xué)實驗、構(gòu)建類腦AI架構(gòu)及診斷腦部疾病等領(lǐng)域的應(yīng)用潛力。



來源:一電快訊
返回第一電動網(wǎng)首頁 >
以上內(nèi)容由AI創(chuàng)作,如有問題請聯(lián)系admin#d1ev.com(#替換成@)溝通,AI創(chuàng)作內(nèi)容并不代表第一電動網(wǎng)(m.22xuexi.com)立場。
文中圖片源自互聯(lián)網(wǎng)或AI創(chuàng)作,如有侵權(quán)請聯(lián)系郵件刪除。