今天,Meta公司人工智能研究部門Meta AI官宣,正在著手一個長期研究項目,研究人腦如何處理語言,目標(biāo)是建立更好的語言模型。
該項目日前宣布,將與神經(jīng)成像中心NeuroSpin、法國國家數(shù)字科學(xué)與技術(shù)研究所Inria合作完成。有了這兩個基金會的參與,Meta AI將比較人工智能語言模型和人腦對相同的口語或書面句子的反應(yīng)。
“了解人類智力的起源是21世紀(jì)科學(xué)界的一大挑戰(zhàn)”,NeuroSpin主任Stanislas Dehaene說道,“語言人工神經(jīng)網(wǎng)絡(luò)越來越接近于模仿人腦的活動,從而為思考如何在神經(jīng)組織中實現(xiàn)人腦思想提供了新思路。”
目前,最接近人類語言的人工智能模型是通過觀察上下文來系統(tǒng)地分解句子,并試圖基于一種機(jī)器學(xué)習(xí)類型來預(yù)測下一個單詞。盡管這些系統(tǒng)或許會帶來一種表面“人性化”的錯覺,但相比人腦,還是差了一大截。
例如,人工智能模型的輸入是“Once upon”(從),要預(yù)測下一個詞,能夠預(yù)測到“a time”(Once upon a time,英語里常用于童話故事的開頭,相當(dāng)于“從前”),是個孤立的過程。而另一方面,對于一個在童話故事中長大的人而言,其大腦聽到 "Once upon"后,大腦不僅僅會預(yù)測“a time”是下一個詞組,腦海中還會浮現(xiàn)出與童話相關(guān)的各種神奇概念,例如邪惡的女巫、龍、城堡、英雄和其他具有文化意義的東西。
當(dāng)大腦做出這些預(yù)測時,它們會生成特定的“大腦狀態(tài)”,可以在大腦成像中看到。Meta AI利用功能性磁共振成像和腦磁圖掃描儀,在志愿者閱讀或聽故事時拍攝大腦活動的快照。
當(dāng)研究人員開始用機(jī)器學(xué)習(xí)記錄來自公共數(shù)據(jù)集的大腦掃描,并結(jié)合新的功能性磁共振成像和腦磁圖掃描儀,他們發(fā)現(xiàn)了一些有趣的事情。該研究表明,人腦中的語言處理過程與人工智能語言模型的工作原理類似,往往類似于有組織的層次結(jié)構(gòu)。
例如,當(dāng)單詞觸發(fā)視覺刺激時,大腦中有一些區(qū)域與視覺處理算法類似,也有一些區(qū)域與表示單詞理解的算法類似,而整個網(wǎng)絡(luò)的行為似乎與人工智能語言轉(zhuǎn)換器類似。
在大腦研究中,我們已經(jīng)知道,大腦的特定區(qū)域是視覺化和語言處理的一部分,它們的相互作用形成了構(gòu)建敘事和表達(dá)的網(wǎng)絡(luò)。Meta AI的結(jié)果顯示,大腦的某些區(qū)域,如前額葉和頂葉皮質(zhì)——位于大腦的前部和中部——最能代表語言模型,并能對遙遠(yuǎn)的未來進(jìn)行單詞預(yù)測。
在Meta AI工作的博士生Charlotte Caucheteux表示,“我們發(fā)現(xiàn),更好的算法是在預(yù)測下一個單詞越多,就越類似大腦的活動,這一點(diǎn)相當(dāng)重要,因為這表明,大腦和算法之間共享的內(nèi)部表征對于處理語言的算法是有用的。”
Meta AI的研究人員和他們的合作者認(rèn)為,他們很可能踏上了成功之路,因為他們在分析了200名志愿者的簡單閱讀測試的大腦活動后很快得到了驗證。約一周后,麻省理工學(xué)院的一個團(tuán)隊獨(dú)立完成了一項類似的研究,并得出了非常相似的結(jié)論。
通過這些研究,Meta AI希望在人腦和人工智能模型之間建立可量化的相似性,并利用這些相似性對大腦功能產(chǎn)生新見解。通過提供與人類語言使用更協(xié)調(diào)的行為和反應(yīng)的人工智能,它將能夠以自然的方式更好地與人互動。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運(yùn)動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運(yùn)動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。
科技行者旗下編譯團(tuán)隊,聚焦海外新技術(shù)、新觀點(diǎn)、新風(fēng)向。