這項(xiàng)由卡內(nèi)基梅隆大學(xué)的雅什·薩瓦尼(Yash Savani)、阿舍爾·特羅克曼(Asher Trockman)、芝麗·馮(Zhili Feng)、阿維·施瓦茨希爾德(Avi Schwarzschild)、亞歷山大·羅比(Alexander Robey)、馬克·芬齊(Marc Finzi)和J·齊科·科爾特(J. Zico Kolter)共同完成的研究發(fā)表于2025年4月,題為《Antidistillation Sampling》。有興趣深入了解的讀者可以通過arXiv:2504.13146v2訪問完整論文,也可訪問項(xiàng)目網(wǎng)站https://antidistillation.com獲取更多信息。
在人工智能快速發(fā)展的今天,模型公司面臨著一個(gè)有趣的兩難處境。當(dāng)他們開發(fā)出能夠進(jìn)行復(fù)雜推理的AI模型時(shí),這些模型就像一位經(jīng)驗(yàn)豐富的老師,會(huì)詳細(xì)解釋自己的思考過程。然而,這種"透明度"也帶來了意想不到的問題——競爭對(duì)手可以通過觀察這些詳細(xì)的推理過程,訓(xùn)練出自己的模型,從而廉價(jià)地獲得相似的能力。
這就好比一位頂級(jí)廚師在直播中詳細(xì)展示了制作招牌菜的每一個(gè)步驟和技巧,觀眾們學(xué)會(huì)后就能在自己的餐廳里復(fù)制這道菜,而無需支付昂貴的學(xué)費(fèi)或花費(fèi)多年時(shí)間摸索。對(duì)于投入巨額資金開發(fā)先進(jìn)AI模型的公司來說,這種"知識(shí)泄露"顯然是不可接受的。
針對(duì)這個(gè)問題,卡內(nèi)基梅隆大學(xué)的研究團(tuán)隊(duì)提出了一種巧妙的解決方案,他們稱之為"反蒸餾采樣"(Antidistillation Sampling)。這種方法的核心思想是讓AI模型在保持自身性能的同時(shí),故意產(chǎn)生一些對(duì)競爭對(duì)手"有毒"的推理過程。
一、模型蒸餾:AI界的"偷師學(xué)藝"
要理解這項(xiàng)研究的重要性,我們首先需要了解什么是模型蒸餾。在傳統(tǒng)教育中,學(xué)生通過觀察老師的教學(xué)過程來學(xué)習(xí)知識(shí)和技能。在AI領(lǐng)域,模型蒸餾的工作原理非常相似——一個(gè)"學(xué)生模型"通過學(xué)習(xí)"教師模型"生成的推理過程來獲得相似的能力。
模型蒸餾的威力在于其效率。培訓(xùn)一個(gè)全新的高性能AI模型需要大量的計(jì)算資源和時(shí)間,成本往往高達(dá)數(shù)千萬美元。但通過蒸餾技術(shù),一個(gè)較小的模型可以通過學(xué)習(xí)大模型的輸出結(jié)果,在相對(duì)較短的時(shí)間內(nèi)獲得相當(dāng)?shù)哪芰?,成本只是從頭訓(xùn)練的一小部分。
這種技術(shù)本身是中性的,在很多場景下都有積極作用。比如,研究機(jī)構(gòu)可以用它來創(chuàng)建更輕量級(jí)的模型,普通用戶也能享受到先進(jìn)AI的便利。然而,當(dāng)這種技術(shù)被用于商業(yè)競爭時(shí),問題就出現(xiàn)了。
當(dāng)前的AI模型,特別是那些擅長數(shù)學(xué)和推理的模型,在回答問題時(shí)會(huì)展示詳細(xì)的思考步驟。這些步驟對(duì)用戶來說很有價(jià)值,因?yàn)樗麄兛梢岳斫釧I的推理邏輯。但同時(shí),這些詳細(xì)的推理過程也為潛在的"偷師者"提供了豐富的訓(xùn)練材料。
更嚴(yán)重的是,通過蒸餾得到的模型往往會(huì)丟失原模型的一些重要特性,特別是安全限制。原始模型可能經(jīng)過精心調(diào)教,拒絕生成有害內(nèi)容,但蒸餾后的模型可能會(huì)繞過這些安全機(jī)制,產(chǎn)生不當(dāng)?shù)妮敵觥?/p>
二、反蒸餾采樣:給推理過程"下毒"
面對(duì)模型蒸餾帶來的挑戰(zhàn),研究團(tuán)隊(duì)開發(fā)了反蒸餾采樣技術(shù)。這種方法的巧妙之處在于,它不是簡單地隱藏推理過程或降低模型透明度,而是在保持模型正常功能的同時(shí),讓生成的推理過程對(duì)蒸餾過程產(chǎn)生"毒性"。
這個(gè)過程可以比作一位精明的廚師面對(duì)偷師問題時(shí)采取的策略。廚師仍然會(huì)在直播中展示烹飪過程,看起來和平時(shí)沒有任何區(qū)別,菜品的最終質(zhì)量也完全一樣。但是,廚師會(huì)故意在某些關(guān)鍵步驟中加入一些對(duì)最終成品無害、但會(huì)誤導(dǎo)模仿者的小動(dòng)作。觀眾看到的仍然是完整的烹飪過程,但如果有人試圖完全按照這個(gè)過程來復(fù)制,結(jié)果就會(huì)大打折扣。
具體來說,反蒸餾采樣通過調(diào)整AI模型選擇下一個(gè)詞匯的概率分布來實(shí)現(xiàn)這一目標(biāo)。在正常情況下,模型會(huì)根據(jù)當(dāng)前上下文選擇最合適的下一個(gè)詞。而反蒸餾采樣會(huì)在這個(gè)選擇過程中加入一個(gè)特殊的"懲罰項(xiàng)",這個(gè)懲罰項(xiàng)會(huì)引導(dǎo)模型選擇那些看起來合理、但會(huì)干擾蒸餾過程的詞匯。
這種方法需要滿足兩個(gè)關(guān)鍵要求。首先是"非蒸餾性"——通過這種方式生成的推理過程應(yīng)該讓學(xué)生模型的學(xué)習(xí)效果明顯下降。其次是"保持效用"——這些推理過程在原始模型的評(píng)估標(biāo)準(zhǔn)下應(yīng)該仍然具有較高的質(zhì)量和可信度。
為了實(shí)現(xiàn)這一目標(biāo),研究團(tuán)隊(duì)引入了"代理模型"的概念。由于他們無法預(yù)知潛在的蒸餾者會(huì)使用什么樣的學(xué)生模型,他們創(chuàng)建了一個(gè)代理模型來模擬這個(gè)學(xué)習(xí)過程。通過分析代理模型在不同輸入下的學(xué)習(xí)效果,他們可以調(diào)整教師模型的輸出,使其對(duì)蒸餾過程產(chǎn)生負(fù)面影響。
三、技術(shù)實(shí)現(xiàn):數(shù)學(xué)與藝術(shù)的完美結(jié)合
反蒸餾采樣的技術(shù)實(shí)現(xiàn)涉及復(fù)雜的數(shù)學(xué)推導(dǎo),但其核心思想可以用相對(duì)簡單的方式理解。
整個(gè)過程的關(guān)鍵在于計(jì)算一個(gè)特殊的"差值項(xiàng)"。這個(gè)差值項(xiàng)衡量的是,當(dāng)學(xué)生模型學(xué)習(xí)某個(gè)特定的推理步驟后,其在目標(biāo)任務(wù)上的表現(xiàn)會(huì)如何變化。如果這個(gè)差值是正數(shù),說明學(xué)習(xí)這個(gè)步驟會(huì)提高學(xué)生模型的能力;如果是負(fù)數(shù),則說明這個(gè)步驟會(huì)損害學(xué)生模型的表現(xiàn)。
反蒸餾采樣的目標(biāo)就是引導(dǎo)教師模型更多地選擇那些會(huì)產(chǎn)生正數(shù)差值的詞匯和推理步驟。換句話說,它會(huì)故意選擇那些看起來有道理、但實(shí)際上會(huì)誤導(dǎo)學(xué)生模型的內(nèi)容。
然而,直接計(jì)算這個(gè)差值項(xiàng)在實(shí)際應(yīng)用中是不可行的,因?yàn)檫@需要對(duì)每個(gè)可能的下一個(gè)詞都運(yùn)行一次完整的模型訓(xùn)練過程,計(jì)算成本過于昂貴。為了解決這個(gè)問題,研究團(tuán)隊(duì)開發(fā)了一種巧妙的近似方法。
他們利用數(shù)學(xué)中的方向?qū)?shù)概念,將原本需要完整訓(xùn)練的計(jì)算過程轉(zhuǎn)換為只需要兩次前向傳播的簡單操作。具體來說,他們首先計(jì)算代理模型在目標(biāo)任務(wù)上的梯度,然后使用有限差分方法來近似原本復(fù)雜的差值計(jì)算。
這種近似方法不僅大大降低了計(jì)算成本,還保持了足夠的精度。研究團(tuán)隊(duì)通過實(shí)驗(yàn)驗(yàn)證了這種近似方法與精確計(jì)算的結(jié)果高度一致,同時(shí)計(jì)算效率提升了數(shù)個(gè)數(shù)量級(jí)。
四、實(shí)驗(yàn)驗(yàn)證:理論照進(jìn)現(xiàn)實(shí)
為了驗(yàn)證反蒸餾采樣的有效性,研究團(tuán)隊(duì)設(shè)計(jì)了一系列綜合實(shí)驗(yàn)。他們選擇了三個(gè)不同的模型作為實(shí)驗(yàn)對(duì)象:deepseek-ai/DeepSeek-R1-Distill-Qwen-7B作為教師模型,Qwen/Qwen2.5-3B作為代理模型,meta-llama/Llama-3.2-3B作為學(xué)生模型。
實(shí)驗(yàn)在兩個(gè)著名的數(shù)學(xué)推理基準(zhǔn)測試上進(jìn)行:GSM8K和MATH。這兩個(gè)數(shù)據(jù)集分別包含小學(xué)和高中水平的數(shù)學(xué)問題,需要模型展示詳細(xì)的推理過程才能正確解答。
實(shí)驗(yàn)結(jié)果令人印象深刻。在GSM8K數(shù)據(jù)集上,當(dāng)教師模型使用普通的溫度采樣時(shí),其準(zhǔn)確率為91.28%,通過蒸餾訓(xùn)練的學(xué)生模型準(zhǔn)確率達(dá)到60.71%。而當(dāng)教師模型使用反蒸餾采樣時(shí),雖然自身準(zhǔn)確率只略微下降到68.51%,但學(xué)生模型的準(zhǔn)確率卻大幅下降到24.73%。
在更具挑戰(zhàn)性的MATH數(shù)據(jù)集上,效果同樣顯著。教師模型從80.00%的準(zhǔn)確率下降到58.58%,但學(xué)生模型的準(zhǔn)確率從14.50%暴跌到10.16%。這意味著反蒸餾采樣在相對(duì)較小的性能損失下,成功地破壞了蒸餾過程的有效性。
更重要的是,研究團(tuán)隊(duì)還驗(yàn)證了這種方法的泛化能力。雖然反蒸餾采樣是基于特定的代理模型設(shè)計(jì)的,但它對(duì)使用不同架構(gòu)的學(xué)生模型同樣有效。這說明這種方法不是針對(duì)特定模型的定制化攻擊,而是一種具有普遍適用性的防護(hù)機(jī)制。
五、參數(shù)調(diào)優(yōu):在保護(hù)與性能間尋找平衡
反蒸餾采樣涉及兩個(gè)關(guān)鍵參數(shù)的調(diào)整。第一個(gè)是ε(epsilon),它控制有限差分近似的精度。研究團(tuán)隊(duì)通過實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)ε設(shè)置為10^-4時(shí),近似結(jié)果與精確計(jì)算幾乎完全一致,同時(shí)保持了良好的數(shù)值穩(wěn)定性。
第二個(gè)更重要的參數(shù)是λ(lambda),它控制反蒸餾懲罰項(xiàng)的強(qiáng)度。這個(gè)參數(shù)本質(zhì)上決定了模型愿意在多大程度上犧牲自身性能來破壞蒸餾效果。
通過系統(tǒng)地調(diào)整λ值,研究團(tuán)隊(duì)展示了一條清晰的權(quán)衡曲線。當(dāng)λ較小時(shí),模型基本保持原有性能,但對(duì)蒸餾的干擾效果有限。隨著λ增大,模型的自身性能逐漸下降,但蒸餾破壞效果顯著增強(qiáng)。
有趣的是,在某些參數(shù)設(shè)置下,反蒸餾采樣能夠?qū)W(xué)生模型的性能降低到甚至不如完全未經(jīng)蒸餾的基礎(chǔ)模型。這意味著蒸餾過程不僅沒有幫助,反而產(chǎn)生了負(fù)面效果。
這種可調(diào)節(jié)性為實(shí)際應(yīng)用提供了靈活性。模型開發(fā)者可以根據(jù)自己的具體需求,在保護(hù)知識(shí)產(chǎn)權(quán)和維持服務(wù)質(zhì)量之間找到最適合的平衡點(diǎn)。
六、對(duì)抗基線:證明方法的獨(dú)特價(jià)值
為了確保反蒸餾采樣的效果確實(shí)來自于其設(shè)計(jì)的機(jī)制,而不是簡單的隨機(jī)干擾,研究團(tuán)隊(duì)設(shè)計(jì)了多個(gè)對(duì)照實(shí)驗(yàn)。
他們測試了一種叫做"置換采樣"的基線方法。這種方法會(huì)隨機(jī)打亂反蒸餾采樣計(jì)算出的懲罰項(xiàng),然后隨機(jī)改變其正負(fù)號(hào)。這樣做保持了統(tǒng)計(jì)特性,但破壞了原有的邏輯結(jié)構(gòu)。
實(shí)驗(yàn)結(jié)果證實(shí),這種隨機(jī)化的干擾方法雖然也會(huì)影響教師模型的性能,但對(duì)蒸餾效果的破壞程度遠(yuǎn)不如真正的反蒸餾采樣。這表明反蒸餾采樣的效果確實(shí)來自于其精心設(shè)計(jì)的機(jī)制,而不是簡單的噪聲干擾。
研究團(tuán)隊(duì)還比較了其他幾種可能的干擾方法,包括向模型輸出添加隨機(jī)噪聲、使用不同的溫度參數(shù)等。結(jié)果顯示,雖然這些方法都能在一定程度上影響蒸餾效果,但沒有一種能夠在保持教師模型性能的同時(shí),如此有效地破壞蒸餾過程。
七、實(shí)際應(yīng)用案例:從理論到實(shí)踐
研究團(tuán)隊(duì)在論文中提供了一些具體的應(yīng)用案例,展示反蒸餾采樣在實(shí)際推理任務(wù)中的表現(xiàn)。
在一個(gè)關(guān)于計(jì)算購買錢包所需額外資金的數(shù)學(xué)問題中,使用溫度采樣的模型會(huì)生成非常規(guī)整、邏輯清晰的推理過程。每一步計(jì)算都條理分明,易于理解和模仿。而使用反蒸餾采樣的模型雖然最終得出了相同的正確答案,但推理過程中包含了一些看似無關(guān)的內(nèi)容和略顯冗余的步驟。
這些看似"雜亂"的內(nèi)容對(duì)人類用戶來說并不影響理解,答案依然清晰可見。但對(duì)于試圖學(xué)習(xí)這種推理模式的學(xué)生模型來說,這些額外的信息會(huì)干擾其學(xué)習(xí)過程,導(dǎo)致無法有效掌握正確的推理方法。
另一個(gè)關(guān)于畫家銷售收入計(jì)算的例子更加戲劇性。使用反蒸餾采樣的模型在推理過程中插入了大量看起來毫不相關(guān)的內(nèi)容,甚至包括一些關(guān)于XML-RPC和其他技術(shù)術(shù)語的片段。然而,在這些看似混亂的內(nèi)容中,正確的數(shù)學(xué)計(jì)算依然清晰可見,最終答案完全正確。
這些例子生動(dòng)地展示了反蒸餾采樣的精妙之處——它能夠在保持輸出質(zhì)量的同時(shí),以一種人類用戶幾乎察覺不到的方式破壞機(jī)器學(xué)習(xí)過程。
八、技術(shù)細(xì)節(jié):算法實(shí)現(xiàn)的藝術(shù)
反蒸餾采樣的算法實(shí)現(xiàn)涉及幾個(gè)關(guān)鍵步驟,每一步都體現(xiàn)了研究團(tuán)隊(duì)的精心設(shè)計(jì)。
整個(gè)過程始于計(jì)算代理模型在目標(biāo)任務(wù)上的梯度。這個(gè)梯度反映了模型參數(shù)應(yīng)該如何調(diào)整才能改善在特定任務(wù)上的表現(xiàn)。計(jì)算這個(gè)梯度需要在一個(gè)相對(duì)較大的數(shù)據(jù)集上運(yùn)行,但這只需要在采樣開始前進(jìn)行一次。
接下來,對(duì)于每個(gè)要生成的詞匯位置,算法會(huì)計(jì)算所有可能候選詞匯的反蒸餾懲罰分?jǐn)?shù)。這個(gè)計(jì)算過程使用有限差分方法,通過比較代理模型在輕微參數(shù)擾動(dòng)前后對(duì)各個(gè)候選詞匯的概率評(píng)估來進(jìn)行。
然后,算法會(huì)將這些懲罰分?jǐn)?shù)與教師模型的原始詞匯概率相結(jié)合,形成一個(gè)調(diào)整后的概率分布。這個(gè)分布會(huì)傾向于選擇那些具有較高懲罰分?jǐn)?shù)(即更能干擾蒸餾過程)的詞匯。
最后,從這個(gè)調(diào)整后的分布中采樣出下一個(gè)詞匯,并重復(fù)這個(gè)過程直到完成整個(gè)回答的生成。
整個(gè)算法的計(jì)算開銷主要來自于對(duì)每個(gè)詞匯位置進(jìn)行的兩次前向傳播計(jì)算。雖然這比普通采樣略微耗時(shí),但相比于運(yùn)行完整的蒸餾訓(xùn)練過程,這個(gè)開銷是完全可以接受的。
九、局限性與未來展望
研究團(tuán)隊(duì)在論文中誠實(shí)地討論了當(dāng)前方法的一些局限性。
首先,反蒸餾采樣的效果很大程度上依賴于代理模型的選擇。如果代理模型與實(shí)際的學(xué)生模型差異過大,防護(hù)效果可能會(huì)打折扣。雖然實(shí)驗(yàn)顯示這種方法對(duì)不同架構(gòu)的模型具有一定的泛化能力,但這種泛化的邊界還需要進(jìn)一步探索。
其次,當(dāng)前的方法主要針對(duì)通過觀察輸出進(jìn)行的蒸餾攻擊。對(duì)于其他類型的模型竊取攻擊,如通過查詢接口進(jìn)行的參數(shù)提取攻擊,反蒸餾采樣的防護(hù)效果還不明確。
另外,反蒸餾采樣需要模型開發(fā)者預(yù)先了解可能面臨的蒸餾威脅類型,并相應(yīng)地設(shè)計(jì)代理模型和損失函數(shù)。這種對(duì)先驗(yàn)知識(shí)的依賴可能限制其在某些場景下的應(yīng)用。
盡管存在這些局限性,研究團(tuán)隊(duì)對(duì)未來的發(fā)展方向充滿信心。他們提到了幾個(gè)可能的改進(jìn)方向,包括開發(fā)更加通用的代理模型、探索對(duì)抗其他類型攻擊的方法,以及優(yōu)化算法效率等。
特別值得期待的是,隨著對(duì)抗性機(jī)器學(xué)習(xí)研究的深入,反蒸餾采樣可能會(huì)發(fā)展成為一個(gè)更加完整的模型防護(hù)框架,不僅能夠抵御蒸餾攻擊,還能防范其他各種形式的模型竊取行為。
十、更廣泛的影響:重塑AI產(chǎn)業(yè)格局
反蒸餾采樣技術(shù)的出現(xiàn)可能會(huì)對(duì)整個(gè)AI產(chǎn)業(yè)產(chǎn)生深遠(yuǎn)影響。
從商業(yè)角度看,這項(xiàng)技術(shù)為AI模型開發(fā)者提供了一種新的知識(shí)產(chǎn)權(quán)保護(hù)手段。在投入巨額資金開發(fā)先進(jìn)模型后,公司可以使用這種技術(shù)來防止競爭對(duì)手輕易復(fù)制其核心能力。這可能會(huì)改變當(dāng)前AI領(lǐng)域的競爭動(dòng)態(tài),使得技術(shù)領(lǐng)先者能夠更好地保持其優(yōu)勢(shì)地位。
從技術(shù)發(fā)展角度看,反蒸餾采樣的出現(xiàn)可能會(huì)推動(dòng)蒸餾技術(shù)本身的進(jìn)步。面對(duì)這種新的防護(hù)機(jī)制,研究者可能會(huì)開發(fā)出更加健壯的蒸餾方法,能夠抵抗各種形式的干擾。這種攻防之間的博弈往往會(huì)推動(dòng)技術(shù)的快速發(fā)展。
從用戶體驗(yàn)角度看,反蒸餾采樣的一個(gè)顯著優(yōu)勢(shì)是它不會(huì)明顯影響普通用戶的使用體驗(yàn)。與簡單地隱藏推理過程或限制模型輸出相比,這種方法允許用戶繼續(xù)獲得詳細(xì)的推理過程,只是這些過程對(duì)機(jī)器學(xué)習(xí)來說變得"有毒"。
然而,這項(xiàng)技術(shù)也引發(fā)了一些值得思考的問題。隨著各種模型防護(hù)技術(shù)的發(fā)展,AI系統(tǒng)可能會(huì)變得越來越"封閉",這是否會(huì)阻礙學(xué)術(shù)研究和技術(shù)創(chuàng)新的進(jìn)步?如何在保護(hù)商業(yè)利益和促進(jìn)技術(shù)開放發(fā)展之間找到平衡?
此外,反蒸餾采樣的成功也提醒我們,在AI技術(shù)日益復(fù)雜的今天,表面看起來正常的輸出可能包含著我們尚未充分理解的深層結(jié)構(gòu)。這對(duì)AI安全和可信度研究提出了新的挑戰(zhàn)。
歸根結(jié)底,這項(xiàng)研究展示了現(xiàn)代AI研究的一個(gè)重要特點(diǎn):技術(shù)創(chuàng)新往往來自于對(duì)現(xiàn)有問題的創(chuàng)新性思考。面對(duì)模型蒸餾帶來的挑戰(zhàn),研究團(tuán)隊(duì)沒有選擇簡單的回避或阻擋策略,而是巧妙地利用了機(jī)器學(xué)習(xí)系統(tǒng)的內(nèi)在特性,開發(fā)出了一種既有效又優(yōu)雅的解決方案。這種思路本身就值得我們學(xué)習(xí)和借鑒。
隨著AI技術(shù)繼續(xù)快速發(fā)展,我們可以預(yù)期會(huì)出現(xiàn)更多類似的創(chuàng)新性解決方案。反蒸餾采樣只是這個(gè)激動(dòng)人心的技術(shù)旅程中的一個(gè)精彩片段,它不僅解決了一個(gè)具體的技術(shù)問題,更重要的是為我們展示了在復(fù)雜技術(shù)環(huán)境中尋找創(chuàng)新解決方案的新思路。對(duì)于任何關(guān)注AI技術(shù)發(fā)展的人來說,這都是一個(gè)值得深入了解和思考的重要研究成果。如有興趣深入了解技術(shù)細(xì)節(jié)和實(shí)驗(yàn)數(shù)據(jù),建議查閱原論文的完整內(nèi)容。
Q&A
Q1:反蒸餾采樣會(huì)不會(huì)影響AI模型給用戶的回答質(zhì)量? A:基本不會(huì)明顯影響。反蒸餾采樣的巧妙之處在于它主要影響的是機(jī)器學(xué)習(xí)過程,而不是人類用戶的理解。雖然推理過程可能包含一些額外內(nèi)容,但最終答案仍然準(zhǔn)確,邏輯鏈條對(duì)人類來說依然可理解。
Q2:這種技術(shù)是不是意味著AI公司可以完全防止別人復(fù)制他們的模型? A:不是完全防止,而是大大增加了復(fù)制的難度和成本。反蒸餾采樣可以顯著降低模型蒸餾的效果,但不能完全阻止所有形式的模型竊取。這更像是給模型加了一把鎖,增加了攻擊者的成本和難度。
Q3:普通用戶能夠察覺到模型使用了反蒸餾采樣嗎? A:很難察覺。對(duì)普通用戶來說,模型的回答質(zhì)量和準(zhǔn)確性基本沒有變化,只是推理過程可能會(huì)稍顯冗長或包含一些看似不太相關(guān)的內(nèi)容。但這些差異通常不足以讓用戶明顯感知到技術(shù)上的變化。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。