av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號

  • 科技行者

  • 算力行者

見證連接與計算的「力量」

首頁 圖視角解密大模型知識結(jié)構(gòu):俄勒岡大學研究揭示大語言模型如何組織和存儲知識

圖視角解密大模型知識結(jié)構(gòu):俄勒岡大學研究揭示大語言模型如何組織和存儲知識

2025-06-03 15:15
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-06-03 15:15 ? 科技行者

在人工智能快速發(fā)展的今天,大語言模型(LLM)已成為我們?nèi)粘I钪胁豢苫蛉钡囊徊糠?,從回答問題到提供建議,它們似乎無所不知。但你是否曾好奇過:這些模型到底是如何組織和存儲知識的?它們的"大腦"里的信息是隨機分布的,還是遵循某種特定的結(jié)構(gòu)模式?

來自俄勒岡大學、Adobe研究院、思科AI研究院、太平洋西北國家實驗室和倫斯勒理工學院的研究團隊聯(lián)合發(fā)表了一篇題為《圖視角探索大語言模型中的知識結(jié)構(gòu)模式》的研究論文。這篇發(fā)表于2025年5月的論文(arXiv:2505.19286v2)嘗試用一種全新的視角——圖論視角——來解密大語言模型的知識結(jié)構(gòu)。

研究團隊受到認知神經(jīng)科學的啟發(fā)。在人類大腦中,知識并非隨機存儲,而是形成了精密的結(jié)構(gòu)模式——相關(guān)概念會聚集在一起形成語義網(wǎng)絡(luò),特定的腦區(qū)負責處理特定類型的信息,感官輸入則形成拓撲圖。研究者猜想:大語言模型或許也存在類似的結(jié)構(gòu)化知識組織模式?

這項研究就像是給大語言模型做了一次"腦部掃描"。研究團隊設(shè)計了一種方法,不僅可以測量模型對單個事實的了解程度,還能評估它對特定實體(如人物、地點或概念)的整體認知水平。更重要的是,他們發(fā)現(xiàn)了大語言模型知識中存在的結(jié)構(gòu)模式,特別是"知識同質(zhì)性"現(xiàn)象——在知識圖譜中拓撲位置相近的實體往往具有相似的知識水平。

基于這些發(fā)現(xiàn),研究團隊開發(fā)了圖機器學習模型,能夠基于實體在知識圖譜中的位置預(yù)測模型對該實體的了解程度。這不僅有助于我們理解大語言模型的內(nèi)部運作機制,還能指導我們更有效地選擇信息來改進這些模型。

讓我們一起深入探索這項研究,看看它如何揭示大語言模型的"思維"結(jié)構(gòu),以及這些發(fā)現(xiàn)對AI技術(shù)發(fā)展的重要意義。

一、研究方法:如何"掃描"大語言模型的知識結(jié)構(gòu)

研究團隊面臨的第一個挑戰(zhàn)是:如何評估大語言模型對知識的掌握程度?這就像是想要測試一個人的知識水平,但不能直接"看到"他的大腦活動一樣。

研究人員采用了一種巧妙的方法。想象一下,你有一本百科全書,里面包含了無數(shù)的知識陳述,比如"愛因斯坦發(fā)明了相對論"或"巴黎是法國的首都"。如果你想測試某人的知識水平,你可以隨機挑選一些陳述,問他們這些陳述是對還是錯。

研究團隊正是采用了類似的方法。他們使用了幾個知識圖譜數(shù)據(jù)集,如MVPKG(政治科學知識)、T-Rex(維基百科知識)、PharmKG8K(藥物學知識)等。這些知識圖譜就像是結(jié)構(gòu)化的百科全書,其中包含了大量的"三元組"知識陳述,每個三元組由主體、關(guān)系和客體組成,例如(唐納德·特朗普,訪問了,中國)。

研究人員將這些三元組轉(zhuǎn)化為自然語言陳述,然后"詢問"大語言模型(如GPT-3.5、GPT-4o、Gemini-2.5 Flash等)這些陳述是否正確。如果模型回答"True",就表示它認識這個事實;如果回答"False",則表示它不認識。

這樣,研究者就能夠為每個三元組分配一個"知識得分"——1表示模型認識這個事實,0表示不認識。進一步,他們通過聚合與特定實體相關(guān)的所有三元組的知識得分,計算出了該實體的"知識水平得分"。

例如,如果一個知識圖譜中有關(guān)"巴拉克·奧巴馬"的10個事實,而大語言模型能夠正確識別其中8個,那么"巴拉克·奧巴馬"這個實體的知識水平得分就是0.8或80%。

這種方法不僅允許研究者評估模型對單個事實的認識程度,還能夠評估模型對特定實體的整體認知水平。這就像是既能測試學生對單個知識點的掌握,又能評估他們對整個學科的理解一樣。

有了這些知識水平得分,研究團隊就能夠開始探索大語言模型知識的結(jié)構(gòu)模式了。他們把這些得分映射到知識圖譜上,就像是給圖譜中的每個節(jié)點(實體)涂上不同深淺的顏色——知識水平高的實體顏色深,知識水平低的實體顏色淺。然后,他們分析這些"顏色"在圖譜中的分布模式,尋找可能存在的規(guī)律。

二、知識結(jié)構(gòu)的關(guān)鍵發(fā)現(xiàn):大模型的"大腦"如何組織知識

通過對大語言模型知識結(jié)構(gòu)的深入分析,研究團隊發(fā)現(xiàn)了幾個令人驚訝的模式,這些發(fā)現(xiàn)就像是窺探了大模型"大腦"的運作方式。

首先,研究者發(fā)現(xiàn)大語言模型的知識水平呈現(xiàn)出三峰分布模式。想象一下,如果我們把所有實體按照知識水平得分(從0到1)排列在一條線上,會發(fā)現(xiàn)實體主要集中在三個位置:得分為0的地方(表示模型對這些實體幾乎一無所知)、得分為0.5的地方(表示模型對這些實體知道一半左右的相關(guān)事實)和得分為1的地方(表示模型對這些實體了如指掌)。這就像是學生的考試成績分布,有完全不會的、一半一半的和滿分的三組人。

更有趣的是,這種分布模式會因知識領(lǐng)域而異。對于一般性知識(如來自維基百科的T-Rex數(shù)據(jù)集),大語言模型表現(xiàn)出右偏分布——大多數(shù)實體的知識水平得分接近1,說明模型對這類常見知識掌握得很好。而對于專業(yè)領(lǐng)域知識(如藥物學PharmKG8K或政治科學MVPKG),則呈現(xiàn)左偏分布——大多數(shù)實體的知識水平得分接近0,表明模型對這些專業(yè)知識了解有限。

第二個重要發(fā)現(xiàn)是"節(jié)點度數(shù)與知識水平的正相關(guān)"。在圖論中,節(jié)點的度數(shù)表示它與多少其他節(jié)點直接相連。研究發(fā)現(xiàn),度數(shù)高的實體(即與許多其他實體有關(guān)聯(lián)的"流行"實體)通常具有更高的知識水平得分。這就像是社交網(wǎng)絡(luò)中的"名人效應(yīng)"——越是廣為人知的人物,大語言模型對它們的了解就越全面。

這個發(fā)現(xiàn)很有意義:高度數(shù)的實體通常在預(yù)訓練語料庫中出現(xiàn)頻率更高,模型有更多機會學習關(guān)于它們的信息。舉個例子,像"美國"或"巴拉克·奧巴馬"這樣的熱門實體會在各種文本中反復出現(xiàn),模型自然能夠積累大量相關(guān)知識。相比之下,小眾或?qū)I(yè)領(lǐng)域的實體出現(xiàn)頻率較低,模型對它們的了解就相對有限。

第三個關(guān)鍵發(fā)現(xiàn)是"知識同質(zhì)性"(knowledge homophily)。研究團隊發(fā)現(xiàn),在知識圖譜中相互連接的實體往往具有相似的知識水平得分。這就像是"物以類聚,人以群分"——知識圖譜中彼此相近的實體,大語言模型對它們的了解程度往往相似。

具體來說,如果計算每個實體與其鄰居實體之間知識水平得分的平均差異,會發(fā)現(xiàn)這個差異通常很?。ㄍ|(zhì)性得分大多集中在0.8左右,表示高度相似)。這一發(fā)現(xiàn)表明,大語言模型的知識并非隨機分布在知識圖譜中,而是呈現(xiàn)出清晰的結(jié)構(gòu)模式——知識在圖譜中形成了"知識島嶼"或"知識社區(qū)"。

值得注意的是,當研究者考慮時間信息時(例如"唐納德·特朗普于2017年11月8日訪問中國"這種帶時間戳的事實),知識同質(zhì)性會略有下降。這表明時間維度為知識增加了復雜性,使得鄰近實體之間的知識水平差異增大。

這些發(fā)現(xiàn)共同揭示了大語言模型知識的結(jié)構(gòu)化特性,表明模型的知識并非隨機存儲,而是呈現(xiàn)出與人類認知系統(tǒng)類似的組織模式。這不僅幫助我們理解大語言模型如何"思考",還為如何更有效地利用和改進這些模型提供了重要線索。

三、知識預(yù)測與模型改進:從發(fā)現(xiàn)到應(yīng)用

研究團隊的發(fā)現(xiàn)不僅僅是理論上的有趣,它們還具有實際應(yīng)用價值?;谒麄儼l(fā)現(xiàn)的"知識同質(zhì)性"現(xiàn)象——圖譜中相互連接的實體往往具有相似的知識水平——研究者開發(fā)了一種基于圖神經(jīng)網(wǎng)絡(luò)的方法,可以預(yù)測大語言模型對特定實體的知識水平。

想象一下,你有一張巨大的知識地圖,上面有成千上萬的實體(人物、地點、概念等),但你只知道其中一小部分實體的"知識得分"(即大語言模型對它們的了解程度)?;谝阎倪@部分信息,你能否預(yù)測模型對其他未測試實體的了解程度?這就是研究團隊嘗試解決的問題。

他們使用了圖神經(jīng)網(wǎng)絡(luò)(GNN)來完成這個任務(wù)。簡單來說,圖神經(jīng)網(wǎng)絡(luò)是一種專門處理圖數(shù)據(jù)的深度學習模型,它能夠利用節(jié)點之間的連接關(guān)系提取信息。在這項研究中,GNN通過分析已知實體的知識得分和它們在圖譜中的位置關(guān)系,學習預(yù)測未知實體的知識得分。

研究結(jié)果表明,這種方法非常有效。模型預(yù)測的知識水平與實際測量結(jié)果之間的平均絕對誤差僅為0.15-0.25,這意味著預(yù)測準確率達到了75%-85%。更有趣的是,基于文本嵌入(將實體名稱轉(zhuǎn)換為數(shù)值向量)的GNN并沒有顯著優(yōu)于使用簡單的獨熱編碼(one-hot encoding),這表明實體之間的文本相似性并不能可靠地反映知識水平的相似性。相比之下,圖神經(jīng)網(wǎng)絡(luò)明顯優(yōu)于多層感知器(MLP),這強調(diào)了利用鄰域信息對知識水平預(yù)測的重要性。

這種預(yù)測能力有什么實際用途呢?研究團隊展示了一個極具價值的應(yīng)用:知識檢查和模型微調(diào)的信息性三元組選擇。

傳統(tǒng)上,當我們想要通過微調(diào)來改進大語言模型的知識時,通常是隨機選擇一批三元組進行訓練。但這種方法可能會浪費資源——如果選中的大多是模型已經(jīng)掌握的知識,那么微調(diào)的效果就會很有限。

研究團隊提出了一種更智能的方法:首先隨機選擇20%的三元組測試模型的知識水平,然后基于這些測試結(jié)果訓練GNN模型預(yù)測所有實體的知識水平。接著,優(yōu)先選擇那些預(yù)測知識水平較低的實體相關(guān)的三元組進行微調(diào)。這就像是針對性補習——重點教學生不懂的知識點,而不是重復他們已經(jīng)掌握的內(nèi)容。

實驗結(jié)果證明,這種基于圖的微調(diào)方法(Graph-FT)明顯優(yōu)于隨機選擇三元組的方法(Random-FT)。平均而言,基于圖的方法在測試集上的準確率提高了約7個百分點(從62.09%提升到69.04%)。這一成功表明,利用知識圖譜的結(jié)構(gòu)信息可以更有效地改進大語言模型的知識。

值得注意的是,這種改進在專業(yè)領(lǐng)域知識(如政治科學MVPKG和藥物學PharmKG8K)上尤為顯著,這正是大語言模型通常表現(xiàn)較弱的領(lǐng)域。例如,在MVPKG數(shù)據(jù)集上,使用基于圖的方法微調(diào)Mistral 7B模型,準確率從65.10%提升到了76.70%,提高了11.6個百分點。

這些應(yīng)用表明,理解大語言模型的知識結(jié)構(gòu)不僅具有理論意義,還能夠指導我們更高效地改進這些模型,特別是在專業(yè)領(lǐng)域知識方面。

四、研究意義與未來展望:大語言模型知識結(jié)構(gòu)研究的新篇章

這項研究的重要性遠超出了對大語言模型知識結(jié)構(gòu)的簡單描述。它開創(chuàng)了一種全新的視角來理解和改進大語言模型,為未來的研究和應(yīng)用打開了多個方向。

首先,從理論角度看,這項研究證實了大語言模型的知識并非隨機分布,而是呈現(xiàn)出結(jié)構(gòu)化的模式,這與人類認知系統(tǒng)有某種相似之處。人類大腦中的知識也是結(jié)構(gòu)化組織的——相關(guān)概念聚集在一起,形成語義網(wǎng)絡(luò);特定的腦區(qū)負責處理特定類型的信息;感官輸入形成拓撲圖等。大語言模型似乎也"自然地"發(fā)展出了類似的組織模式,這提示我們,知識的結(jié)構(gòu)化組織可能是高效信息處理系統(tǒng)的普遍特性,無論是生物的還是人工的。

其次,從方法論角度看,這項研究引入了圖論視角來分析大語言模型的知識,這是一種創(chuàng)新的跨學科方法。圖論提供了一套強大的工具來分析復雜系統(tǒng)中的關(guān)系和模式,而這正是理解大語言模型內(nèi)部知識組織所需要的。研究團隊開發(fā)的知識水平評估方法和基于圖的知識預(yù)測模型,為未來的研究提供了有價值的工具和思路。

從應(yīng)用角度看,研究的發(fā)現(xiàn)對改進大語言模型有直接的實用價值?;趫D的三元組選擇方法證明可以顯著提高微調(diào)效率,特別是在專業(yè)領(lǐng)域知識方面。這對于開發(fā)面向特定領(lǐng)域的大語言模型應(yīng)用具有重要意義。例如,要開發(fā)一個醫(yī)學領(lǐng)域的AI助手,可以利用這種方法更有效地向模型教授醫(yī)學知識,而不是盲目地灌輸大量可能已知或不相關(guān)的信息。

此外,研究中發(fā)現(xiàn)的知識同質(zhì)性現(xiàn)象也為知識圖譜檢索提供了新思路。當我們需要從外部知識庫檢索信息來輔助大語言模型時,可以優(yōu)先選擇模型知識水平較低的區(qū)域,這樣能夠最大化檢索的價值。同樣,這一發(fā)現(xiàn)也可以用于高效識別知識缺陷——如果我們知道模型對某些實體的知識水平低,那么很可能與這些實體相關(guān)的其他實體也存在知識缺陷。

當然,這項研究也存在一些局限性。首先,目前的方法僅適用于具有明確定義的實體和關(guān)系的知識圖譜,而現(xiàn)實世界的網(wǎng)絡(luò)通常更復雜,包含豐富的文本信息。未來的研究可以嘗試將這種分析擴展到文本屬性圖等更復雜的數(shù)據(jù)結(jié)構(gòu)。其次,當前的應(yīng)用主要集中在微調(diào)三元組選擇上,而研究發(fā)現(xiàn)的結(jié)構(gòu)模式還有更廣泛的應(yīng)用潛力,如指導知識圖譜檢索和知識缺陷識別等。

未來的研究方向可能包括:探索其他類型的結(jié)構(gòu)模式,如知識的層次結(jié)構(gòu)或時間演化模式;研究不同大語言模型之間知識結(jié)構(gòu)的差異和共性;開發(fā)更復雜的基于圖的模型來預(yù)測和改進大語言模型的知識;探索這些發(fā)現(xiàn)在實際應(yīng)用中的更廣泛用途,如對話系統(tǒng)、信息檢索和事實核查等。

總的來說,這項研究不僅揭示了大語言模型知識的結(jié)構(gòu)模式,還為如何更有效地理解和改進這些模型提供了新的視角和方法。它標志著大語言模型知識結(jié)構(gòu)研究的一個重要里程碑,為未來的研究和應(yīng)用開辟了新的可能性。

歸根結(jié)底,這項研究告訴我們,大語言模型不僅僅是文字的簡單處理器,它們內(nèi)部蘊含著復雜的知識結(jié)構(gòu),這些結(jié)構(gòu)影響著模型如何獲取、存儲和使用知識。通過理解這些結(jié)構(gòu),我們可以更好地利用這些強大的工具,使它們更好地服務(wù)于我們的需求。

對于普通用戶來說,這意味著未來的AI助手可能會更加智能,特別是在專業(yè)領(lǐng)域的知識方面;對于研究者和開發(fā)者來說,這提供了一種更有效的方法來改進和定制大語言模型;對于整個AI領(lǐng)域來說,這是向理解人工智能"思維"結(jié)構(gòu)邁出的重要一步。

如果你對這項研究感興趣,可以訪問arXiv:2505.19286v2查閱完整論文,了解更多技術(shù)細節(jié)和研究發(fā)現(xiàn)。

分享至
0贊

好文章,需要你的鼓勵

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-