近日,由英國(guó)倫敦瑪麗女王大學(xué)數(shù)字音樂(lè)中心的Chin-Yun Yu和Gyorgy Fazekas,以及日本東京索尼AI和索尼集團(tuán)公司的Marco A. Martínez-Ramírez、Junghyun Koo、Wei-Hsiang Liao和Yuki Mitsufuji共同完成的一項(xiàng)創(chuàng)新研究《Improving Inference-Time Optimisation for Vocal Effects Style Transfer with a Gaussian Prior》(為推理時(shí)間優(yōu)化的聲樂(lè)效果風(fēng)格遷移引入高斯先驗(yàn))引起了音頻處理領(lǐng)域的廣泛關(guān)注。這項(xiàng)研究發(fā)表于2025年5月,讀者可通過(guò)arXiv:2505.11315v1查閱完整論文。
一、聲音效果的"借衣穿":研究背景與問(wèn)題
想象一下,你是一位音樂(lè)制作人,手上有一段原始的人聲錄音,你想讓它聽(tīng)起來(lái)像你最喜歡的那首熱門歌曲中的人聲效果。但問(wèn)題是,你不確切知道應(yīng)該如何調(diào)整混音臺(tái)上那些復(fù)雜的效果器參數(shù)。這就像你想復(fù)制一道美食,但不知道廚師放了多少鹽、多少糖、多少香料一樣令人困惑。
音頻工程師們經(jīng)常面臨這樣的挑戰(zhàn)。當(dāng)客戶提供參考曲目,要求"讓我的聲音聽(tīng)起來(lái)像這個(gè)"時(shí),有經(jīng)驗(yàn)的工程師可能需要花費(fèi)大量時(shí)間才能精確匹配這種風(fēng)格。而新進(jìn)工程師則可能完全不知從何下手。
近年來(lái),一種名為"推理時(shí)間優(yōu)化"(Inference-Time Optimisation,簡(jiǎn)稱ITO)的方法為解決這個(gè)問(wèn)題提供了一線希望。顧名思義,這種方法不需要預(yù)先訓(xùn)練模型,而是在需要處理音頻的那一刻(推理時(shí)間)動(dòng)態(tài)尋找最佳參數(shù)。具體來(lái)說(shuō),ST-ITO(Style Transfer with Inference-Time Optimisation)方法會(huì)嘗試不同的效果器參數(shù)組合,直到處理后的音頻在某種特定的"風(fēng)格空間"中與參考音頻盡可能接近。
但研究團(tuán)隊(duì)發(fā)現(xiàn),現(xiàn)有的ST-ITO方法有一個(gè)關(guān)鍵缺陷:它把所有可能的參數(shù)組合都看作等同可能,就像認(rèn)為做菜時(shí)放100克鹽和放1克鹽的可能性是一樣的。而實(shí)際上,專業(yè)混音師很少會(huì)使用極端參數(shù)設(shè)置,大多數(shù)優(yōu)質(zhì)混音都集中在某些合理的參數(shù)范圍內(nèi)。
這就引出了這項(xiàng)研究的核心問(wèn)題:如何讓計(jì)算機(jī)像有經(jīng)驗(yàn)的音頻工程師一樣,在尋找最佳效果器參數(shù)時(shí)更傾向于選擇"合理"的組合,而不是盲目搜索整個(gè)參數(shù)空間?
二、高斯先驗(yàn):引入專業(yè)知識(shí)的指南針
研究團(tuán)隊(duì)提出了一個(gè)巧妙的解決方案:在搜索過(guò)程中引入"先驗(yàn)知識(shí)"(prior knowledge),就像給計(jì)算機(jī)配備了一位經(jīng)驗(yàn)豐富的音頻工程師助手,在耳邊提醒它:"嘿,這個(gè)參數(shù)組合聽(tīng)起來(lái)很奇怪,專業(yè)人士一般不會(huì)這么做。"
從統(tǒng)計(jì)學(xué)角度看,這相當(dāng)于從"最大似然估計(jì)"升級(jí)到"最大后驗(yàn)概率估計(jì)"(Maximum-A-Posteriori estimation,簡(jiǎn)稱MAP)。如果用日常語(yǔ)言解釋,最大似然估計(jì)就像是純粹根據(jù)你聽(tīng)到的聲音判斷對(duì)方說(shuō)了什么;而最大后驗(yàn)概率估計(jì)則考慮了語(yǔ)境和常識(shí),比如在聽(tīng)到"我想吃蘋(ping)果"時(shí),即使發(fā)音有誤,你也能根據(jù)日常經(jīng)驗(yàn)猜測(cè)對(duì)方可能是想說(shuō)"蘋果"而非"瓶果"。
研究團(tuán)隊(duì)從哪里獲取這種"專業(yè)常識(shí)"呢?他們使用了DiffVox數(shù)據(jù)集,這是一個(gè)包含365個(gè)專業(yè)人聲處理預(yù)設(shè)的集合,來(lái)自于專業(yè)混音的商業(yè)歌曲。他們分析了這些預(yù)設(shè)中的參數(shù)分布特征,并構(gòu)建了一個(gè)"高斯先驗(yàn)"模型。
高斯先驗(yàn)聽(tīng)起來(lái)很復(fù)雜,但其實(shí)就像是一張參數(shù)的熱力圖,告訴計(jì)算機(jī):"看,這個(gè)區(qū)域是專業(yè)人士經(jīng)常使用的參數(shù)組合,這個(gè)區(qū)域則幾乎沒(méi)人用。"具體來(lái)說(shuō),他們計(jì)算了各參數(shù)的平均值和協(xié)方差矩陣,這就像是知道了"一般人喜歡放多少鹽"以及"放鹽多時(shí)一般也會(huì)相應(yīng)增加胡椒量"這樣的烹飪規(guī)律。
當(dāng)系統(tǒng)嘗試匹配參考音頻的風(fēng)格時(shí),它不僅考慮處理后的音頻與參考音頻在風(fēng)格空間中的距離,還會(huì)考慮所選參數(shù)與專業(yè)人士常用參數(shù)的接近程度。如果兩個(gè)不同的參數(shù)組合能達(dá)到類似的風(fēng)格匹配度,系統(tǒng)會(huì)更傾向于選擇接近專業(yè)常用范圍的那組參數(shù)。
三、搭建聲音"復(fù)制機(jī)":技術(shù)實(shí)現(xiàn)細(xì)節(jié)
要實(shí)現(xiàn)這個(gè)聲音風(fēng)格"復(fù)制機(jī)",研究團(tuán)隊(duì)需要三個(gè)關(guān)鍵組件:一個(gè)可微分的音頻效果模型、一個(gè)風(fēng)格編碼器,以及一個(gè)參數(shù)優(yōu)化算法。
首先,他們使用了DiffVox效果鏈作為音頻處理模型。這個(gè)效果鏈包含了專業(yè)混音中常用的幾種效果器:六段參數(shù)均衡器(就像調(diào)整音頻的高中低音)、動(dòng)態(tài)范圍控制器(控制聲音的響度變化)、乒乓延遲(創(chuàng)造左右聲道的回聲效果)、反饋延遲網(wǎng)絡(luò)混響(增加空間感),以及聲像控制(調(diào)整聲音在左右聲道的分布)。這些效果器的組合順序是固定的,就像烹飪食譜中步驟的順序一樣重要。
對(duì)于風(fēng)格編碼器,研究團(tuán)隊(duì)嘗試了三種不同選擇:AFx-Rep(一種專門為識(shí)別音頻效果而訓(xùn)練的編碼器)、MFCC(梅爾頻率倒譜系數(shù),一種描述音頻音色特征的傳統(tǒng)方法)和MIR特征(包括響度、峰值因子、動(dòng)態(tài)范圍、頻譜中心等音頻特征)。這些編碼器的作用就像是人的耳朵,負(fù)責(zé)判斷兩段音頻在風(fēng)格上的相似程度。
優(yōu)化算法則使用了Adam優(yōu)化器,這就像是一個(gè)聰明的廚師,不斷嘗試調(diào)整食譜中的配料比例,直到做出的菜肴味道接近目標(biāo)美食。系統(tǒng)會(huì)從參數(shù)的平均值開(kāi)始嘗試,然后根據(jù)處理后音頻與參考音頻的風(fēng)格差異,以及當(dāng)前參數(shù)與專業(yè)參數(shù)分布的差異,逐步調(diào)整參數(shù)直到收斂。
用公式表達(dá),系統(tǒng)要優(yōu)化的目標(biāo)是: θ* = argmax_θ [log p(z|θ, x) + α log p(θ)]
其中,z是參考音頻的風(fēng)格嵌入,x是原始人聲,θ是效果器參數(shù),α是控制先驗(yàn)強(qiáng)度的超參數(shù)。這個(gè)公式的第一部分評(píng)估風(fēng)格匹配度,第二部分評(píng)估參數(shù)的"合理性"。
四、實(shí)戰(zhàn)測(cè)試:效果有多好?
研究團(tuán)隊(duì)在MedleyDB數(shù)據(jù)集的70個(gè)人聲片段上進(jìn)行了測(cè)試。他們首先為這些片段生成了"黃金標(biāo)準(zhǔn)"參數(shù)作為參考。然后,他們?cè)O(shè)計(jì)了一個(gè)有趣的實(shí)驗(yàn):將音頻片段分成A組和B組,使用A組的處理后音頻作為參考,嘗試處理B組的原始人聲,再與B組的實(shí)際處理后音頻進(jìn)行比較。
他們將提出的方法與幾個(gè)基準(zhǔn)方法進(jìn)行了對(duì)比:
1. 平均值方法:簡(jiǎn)單使用所有預(yù)設(shè)的平均參數(shù)值。 2. 回歸方法:訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)直接從音頻預(yù)測(cè)參數(shù)。 3. 最近鄰方法:在參數(shù)空間或不同的嵌入空間中尋找最接近的預(yù)設(shè)。 4. 原始ST-ITO:不使用先驗(yàn)知識(shí)的推理時(shí)間優(yōu)化。
評(píng)估指標(biāo)包括MSS(多尺度STFT損失,評(píng)估頻譜相似度)、MLDR(微動(dòng)態(tài)范圍損失,評(píng)估動(dòng)態(tài)特性)和PMSE(參數(shù)均方誤差,評(píng)估參數(shù)準(zhǔn)確度)。
結(jié)果令人振奮!加入高斯先驗(yàn)的方法在幾乎所有指標(biāo)上都優(yōu)于基準(zhǔn)方法。使用AFx-Rep編碼器和α=0.1的配置表現(xiàn)最佳,參數(shù)誤差比原始ST-ITO降低了約33%。這就像廚師不僅做出了相似口味的菜肴,還用了與原廚師更接近的配料比例。
為了更直觀地評(píng)估效果,研究團(tuán)隊(duì)還進(jìn)行了主觀聽(tīng)感測(cè)試。他們邀請(qǐng)了16位參與者比較不同方法處理后的音頻與參考音頻的相似度。測(cè)試采用類似MUSHRA的方法,參與者需要為每種方法的處理效果評(píng)分(0-100分)。
主觀測(cè)試結(jié)果與客觀評(píng)估高度一致:加入高斯先驗(yàn)的AFx-Rep方法獲得了最高評(píng)分,明顯優(yōu)于回歸模型。這表明,即使在有限的配對(duì)數(shù)據(jù)條件下,借助專業(yè)預(yù)設(shè)分布的先驗(yàn)知識(shí)也能顯著提升風(fēng)格遷移的效果。
五、局限與未來(lái)展望
雖然研究取得了顯著成果,研究團(tuán)隊(duì)也坦誠(chéng)地指出了當(dāng)前方法的局限性。
首先,他們使用的高斯模型假設(shè)參數(shù)分布是固定維度和有序的,這意味著效果器的類型和順序是固定的。而現(xiàn)實(shí)中,音頻工程師可能使用不同類型的效果器,或者改變效果器的處理順序。
其次,參數(shù)空間中存在"等變性"問(wèn)題。舉個(gè)例子,將均衡器中兩個(gè)相鄰頻段的參數(shù)互換,可能產(chǎn)生幾乎相同的音頻效果。這種復(fù)雜的對(duì)稱性使得簡(jiǎn)單的高斯模型難以完美捕捉參數(shù)分布的真實(shí)特性。
研究團(tuán)隊(duì)指出,未來(lái)的工作可以探索條件先驗(yàn)p(θ|x),即基于原始人聲特性的參數(shù)分布模型,或者更強(qiáng)的條件先驗(yàn)p(θ|y),直接從參考音頻預(yù)測(cè)參數(shù)分布。此外,擴(kuò)展方法以處理可變維度和具有等變性的參數(shù)空間,以及探索非可微效果器的應(yīng)用,也是有價(jià)值的研究方向。
六、結(jié)語(yǔ):智能音頻處理的新篇章
歸根結(jié)底,這項(xiàng)研究向我們展示了如何讓計(jì)算機(jī)更像有經(jīng)驗(yàn)的音頻工程師,不僅能聽(tīng)出音頻效果的差異,還能理解哪些參數(shù)組合更符合專業(yè)實(shí)踐。通過(guò)引入高斯先驗(yàn),研究團(tuán)隊(duì)成功地將音頻工程師的集體智慧融入了算法中,使得風(fēng)格遷移結(jié)果更加自然和專業(yè)。
這項(xiàng)技術(shù)的實(shí)際應(yīng)用前景廣闊:音樂(lè)制作初學(xué)者可以更輕松地復(fù)制專業(yè)混音效果;音樂(lè)制作軟件可以提供更智能的預(yù)設(shè)推薦;甚至可能出現(xiàn)新型音頻助手,幫助用戶根據(jù)參考音頻自動(dòng)調(diào)整效果器參數(shù)。
雖然當(dāng)前實(shí)現(xiàn)仍有局限,但這項(xiàng)研究無(wú)疑開(kāi)創(chuàng)了音頻處理中融合數(shù)據(jù)驅(qū)動(dòng)和專業(yè)知識(shí)的新范式。它提醒我們,在追求完全數(shù)據(jù)驅(qū)動(dòng)的同時(shí),不要忽視行業(yè)專家長(zhǎng)期積累的經(jīng)驗(yàn)和知識(shí),這些"先驗(yàn)"往往是實(shí)現(xiàn)真正智能系統(tǒng)的關(guān)鍵。
對(duì)于想要深入了解這項(xiàng)研究的讀者,可以通過(guò)arXiv:2505.11315v1查閱完整論文,也可以訪問(wèn)github.com/SonyResearch/diffvox查看開(kāi)源代碼和實(shí)驗(yàn)細(xì)節(jié)。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過(guò)交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開(kāi)辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過(guò)讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問(wèn)題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問(wèn)題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過(guò)創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開(kāi)發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過(guò)學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來(lái)了效率和精度的雙重突破。