av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關注公眾號

  • 科技行者

  • 算力行者

見證連接與計算的「力量」

首頁 TL;DR:微調大模型思考長度,讓AI推理更高效——記錄中美多機構聯(lián)合研究

TL;DR:微調大模型思考長度,讓AI推理更高效——記錄中美多機構聯(lián)合研究

2025-07-07 17:35
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-07-07 17:35 ? 科技行者

在人工智能快速發(fā)展的今天,大型語言模型(LLMs)的推理能力已經取得了令人矚目的進步。2025年6月,來自中國科學院人工智能學院、中國科學院自動化研究所、美國加州大學洛杉磯分校(UCLA)、清華大學、微軟公司以及香港科技大學的研究團隊聯(lián)合發(fā)表了一篇題為《TL;DR: Too Long, Do Re-weighting for Effcient LLM Reasoning Compression》(太長不讀:為高效大語言模型推理壓縮進行重新權重分配)的研究論文。這項研究提出了一種動態(tài)調整模型推理過程的方法,能夠大幅減少模型輸出的文本長度,同時保持推理準確性。有興趣深入了解的讀者可以通過論文存儲庫網址:https://github.com/zzli2022/TLDR 獲取更多信息。

一、為什么我們需要壓縮AI的"思考"過程?

想象一下,如果你請一位朋友幫你解一道簡單的數學題,比如"2+3等于多少",你可能希望他直接告訴你"5",而不是聽他絮絮叨叨地分析:"嗯,我們有2,然后加上3,讓我思考一下,2是1加1,3是2加1,所以2加3應該是1加1再加2加1,也就是1加1加2加1,等于5。不對,讓我再檢查一下..."

目前的推理型大語言模型就像這位過分謹慎的朋友。近年來,研究人員開發(fā)了具有強大推理能力的大語言模型,這些模型從簡單的"系統(tǒng)1"思考模式(如GPT-4o、LLaMA-3等模型采用的快速直覺處理)發(fā)展到了"系統(tǒng)2"思考范式(如DeepSeek-R1等模型通過反復自我評估、錯誤糾正和驗證進行深思熟慮的分析)。

雖然系統(tǒng)2模式的模型在復雜問題上表現出色,但它們往往會在簡單問題上也進行過度思考,導致不必要的探索和計劃,最終降低效率和實用性。就像一個優(yōu)秀的數學家解決"2+3"時也要寫滿一整頁紙的推導過程,這顯然是資源的浪費。

二、現有方法的局限性

目前已有多種方法試圖解決大模型的思考冗余問題。無需訓練的方法(如CoD、TALE-EP等)通過提示詞或基于置信度的技術來控制模型在推理過程中的內部狀態(tài)。另一種思路是通過模型合并來干預推理模型的參數,以產生相對簡潔的解決方案?;谟柧毜姆椒ǎㄈ鏣OPS、CoT-Valve等)則主要通過強化學習或監(jiān)督微調,使模型學會生成更簡潔但仍然正確的推理路徑。

這些方法通常需要精心收集問題并精確控制不同長度數據的比例才能取得良好效果,導致參數調整和數據構建過程復雜。例如,TOPS需要手動標記監(jiān)督微調數據以構建長度敏感的模型,而CoT-Valve則通過模型插值創(chuàng)建中間模型進行采樣生成數據。這些構建過程往往繁瑣、計算成本高或難以控制質量。

三、揭秘短/長推理鏈在大模型思考壓縮中的作用

研究團隊首先探究了混合短推理鏈(Short CoT)和長推理鏈(Long CoT)數據對壓縮推理過程的影響。他們發(fā)現:

系統(tǒng)1數據(簡單問題上的短推理鏈)能夠減少所有難度級別問題上的推理冗余。研究團隊驚喜地發(fā)現,這種長度壓縮效果很好地泛化到了不同難度的問題上。簡單來說,就像學會用簡潔方式解決簡單問題的經驗,也能幫助我們在解決復雜問題時減少不必要的步驟。

系統(tǒng)2數據(僅在難題上的長推理鏈)有助于維持性能水平。研究表明,在混合數據中加入少量針對挑戰(zhàn)性問題的長推理鏈,可以減輕短推理鏈帶來的準確度下降問題。而在簡單問題上使用長推理鏈則幫助不大。這就像在解決復雜謎題時,我們確實需要一些詳細的思考步驟,但對于簡單問題,過度思考反而是浪費。

這些發(fā)現引出了一個關鍵問題:我們能否找到一個最佳的長-短數據混合比例,在最大化推理效率的同時保持準確性?

四、動態(tài)思考長度再權重方法(TLDR)

基于上述發(fā)現,研究團隊提出了一個直觀的方法:當模型思考太長時,應該重新加權更多直覺性推理路徑來簡化思考過程;相反,當思考太直接時,應該加入更多慢思考推理鏈來鼓勵更深入的思考。

他們將這一思想具體化為"思考長度數據再權重"(Thinking Length Data Re-Weighting,TLDR)方法。這種方法通過系統(tǒng)1和系統(tǒng)2數據的動態(tài)平衡,使模型能夠消除冗余的認知過程。

具體實施步驟如下:

首先,研究者構建了針對簡單問題的短推理鏈數據和針對復雜問題的長推理鏈數據。模型以初始比例開始,使用混合數據進行推理壓縮。完成一個壓縮周期后,模型會重新評估系統(tǒng)1和系統(tǒng)2數據的預期收益,以實現更好的性能。

與直覺相符,系統(tǒng)1數據(短推理鏈)可以提高效率,所以研究者使用效率指標來衡量系統(tǒng)1數據的預期收益。而系統(tǒng)2數據(長推理鏈)可以提高推理準確性,因此用準確性指標來衡量系統(tǒng)2數據在推理能力方面的收益。

與需要不同推理長度的精心設計的微調數據的其他方法相比,TLDR方法只需利用原始模型采樣的長推理鏈和構建的短推理鏈數據,通過動態(tài)學習比例實現高效推理。在DeepSeek-Distill-7B/14B模型上的實驗表明,該模型在7B/14B模型上都取得了出色的壓縮結果,推理能力只有輕微下降。

五、TLDR的技術實現細節(jié)

為了形式化思考壓縮問題,研究團隊將其定義為一個優(yōu)化任務,目標是確定系統(tǒng)1和系統(tǒng)2推理之間的最佳比例。他們期望通過混合數據訓練的模型能夠在特定評估指標上接近系統(tǒng)1和系統(tǒng)2的性能上限。

模型優(yōu)化目標為:最小化模型與系統(tǒng)1效率上限之間的差距,以及與系統(tǒng)2推理能力上限之間的差距,同時優(yōu)化模型參數以最大化推理性能和效率。

對于系統(tǒng)1/2混合數據的設置,研究團隊利用短推理鏈模型來調制系統(tǒng)1模型的數據,使用長推理鏈模型從S1采樣難題提示,并只保留正確的回答。最終,他們獲得了<簡單問題,短推理鏈>和<難題,長推理鏈>的指令數據對。

在訓練過程中,研究團隊不斷調整系統(tǒng)1和系統(tǒng)2數據在后訓練階段的比例,確保模型保留原始長推理鏈模型的推理能力,同時實現短推理鏈模型的效率。他們將準確度上限設定為與原始長推理鏈模型的準確度相匹配,將代幣下限設定為與構建的短推理鏈模型的數據下限相對應。

六、實驗結果與比較

研究團隊在DeepSeek-R1-Distill-7B和DeepSeek-R1-Distill-14B模型上對TLDR方法進行了驗證,并使用多個難度不同的基準測試集(包括ASDiv、GSM8K、MATH-500、AIME2024和AMC)進行了評估。

實驗結果表明,TLDR方法在保持推理準確性的同時,顯著減少了輸出令牌的數量,平均壓縮率接近40%。這意味著模型能夠用更少的"文字"表達相同的思考過程和得出正確答案。

與其他基線方法相比:

基于提示的方法(如TALE-EP、ConciseCoT):TLDR在保持類似準確度的情況下實現了更高的壓縮率。

基于模型合并的方法(如平均合并、任務算術合并等):這些方法在挑戰(zhàn)性問題上仍然面臨顯著的性能下降,而TLDR能夠在不同難度的數據集上保持準確性。

基于獎勵的方法(如ThinkPruner、Overthink):與CoT-Valve和ThinkPrune相比,TLDR在ASDiv和GSM8K等容易出現過度探索的數據集上實現了出色的壓縮率。

值得注意的是,CoT-Valve作為一種基于SFT的方法,需要精心設計的模型混合和構建長度多樣的數據集進行動態(tài)學習。相比之下,TLDR方法只需要直接的數據采樣和自適應混合比例,以更簡單的方式實現自適應推理。

七、研究意義與未來展望

TLDR方法為大語言模型的推理壓縮提供了一種創(chuàng)新的解決方案。通過動態(tài)再權重系統(tǒng)1(簡潔推理)和系統(tǒng)2(詳細推理)數據在訓練過程中的影響,TLDR使大語言模型能夠為簡單問題消除不必要的步驟,同時仍然能夠為復雜任務進行深入思考。

這種方法避免了其他壓縮方法通常需要的繁瑣數據收集和超參數調整,為開發(fā)既高效又準確的大語言模型提供了更實用的解決方案。

未來研究可能會探索將TLDR方法應用于更廣泛的任務和模型架構,進一步提高推理效率并減少計算資源消耗。這不僅可以降低大語言模型的運行成本,還可以使它們在資源受限的環(huán)境中更加實用,如移動設備或邊緣計算設備。

總之,TLDR方法代表了一種平衡效率和準確性的新思路,為大語言模型的發(fā)展提供了有價值的貢獻,使AI系統(tǒng)能夠更加智能地分配其"思考"資源,對簡單問題快速作出反應,對復雜問題進行深入思考,就像人類的思維過程一樣靈活和高效。

分享至
0贊

好文章,需要你的鼓勵

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-