CNET科技行者 8月21日 北京消息:“語(yǔ)音識(shí)別”的終極夢(mèng)想,是真正能夠理解人類語(yǔ)言甚至是方言環(huán)境的系統(tǒng)。但幾十年來(lái),人們并沒(méi)有一個(gè)有效的策略來(lái)創(chuàng)建這樣一個(gè)系統(tǒng),直到人工智能技術(shù)的爆發(fā)。
在過(guò)去幾年中,人們?cè)谌斯ぶ悄芎蜕疃葘W(xué)習(xí)領(lǐng)域的突破,讓語(yǔ)音識(shí)別的探索跨了一大步。市面上玲瑯滿目的產(chǎn)品也反映了這種飛躍式發(fā)展,例如亞馬遜Echo、蘋(píng)果Siri 等等。本文將回顧語(yǔ)音識(shí)別技術(shù)領(lǐng)域的最新進(jìn)展,研究促進(jìn)其迅猛發(fā)展進(jìn)程的元素,并探討其未來(lái)以及我們距離可以完全解決這個(gè)問(wèn)題還有多遠(yuǎn)。
背景:人機(jī)交互
多年來(lái),理解人類一直都是人工智能的最重要任務(wù)之一。人們不僅希望機(jī)器能夠理解他們?cè)谡f(shuō)些什么,還希望它們能夠理解他們所要表達(dá)的意思,并基于這些信息采取特定的行動(dòng)。而這一目標(biāo)正是對(duì)話式人工智能(AI)的精髓。
對(duì)話式AI包含有兩個(gè)主要類別:人機(jī)界面,以及人與人溝通的界面。在人機(jī)界面中,人類與機(jī)器往往通過(guò)語(yǔ)音或文本交互,屆時(shí)機(jī)器會(huì)理解人類 (盡管這種理解方式是有限的) 并采取相應(yīng)的一些措施。圖1表明,這臺(tái)機(jī)器可以是一個(gè)私人助理 ( Siri、Alexa之類的產(chǎn)品 ) 或某種聊天機(jī)器人。
圖1:人機(jī)交互AI
在人與人之間的互動(dòng)中,人工智能會(huì)在兩個(gè)或兩個(gè)以上進(jìn)行會(huì)話、互動(dòng)或提出見(jiàn)解的人類用戶之間構(gòu)建一座橋梁 ( 參見(jiàn)圖2 ) 。例如,一個(gè)AI在聽(tīng)取電話會(huì)議后,能夠創(chuàng)立出一段簡(jiǎn)要的電話記錄摘要,并跟進(jìn)相關(guān)人員。
圖2:人與人之間互動(dòng)的人工智能
對(duì)話式AI背后:機(jī)器感知與機(jī)器識(shí)別
為了理解對(duì)話式AI背后的挑戰(zhàn)與技術(shù),我們必須研究人工智能的基本概念:機(jī)器感知與機(jī)器識(shí)別。
機(jī)器感知是指機(jī)器能夠采用類似于人類自己憑感覺(jué)感知周圍世界來(lái)分析數(shù)據(jù)的能力;換句話說(shuō),其本質(zhì)上就是為機(jī)器賦予人類的感知能力。近來(lái)很多的人工智能算法都需要使用電腦攝像頭,如目標(biāo)檢測(cè)和識(shí)別,都?xì)w屬于機(jī)器感知范疇——主要涉及視覺(jué)處理。語(yǔ)音識(shí)別和分析則是那些利用聽(tīng)覺(jué)的機(jī)器感知技術(shù)。
機(jī)器識(shí)別是在機(jī)器感知所生成的元數(shù)據(jù)之上的推理運(yùn)算。機(jī)器識(shí)別包括決策制定、專家系統(tǒng)、行動(dòng)執(zhí)行以及用戶的意圖等方面。一般情況下,如果沒(méi)有機(jī)器識(shí)別,對(duì)AI的感知系統(tǒng)不會(huì)產(chǎn)生任何影響,而機(jī)器感知會(huì)提供適當(dāng)?shù)脑獢?shù)據(jù)信息來(lái)令其做出決策與執(zhí)行行動(dòng)。
在對(duì)話式AI中,機(jī)器感知包括所有的語(yǔ)音分析技術(shù),如識(shí)別和性能分析;機(jī)器識(shí)別則包括所有與語(yǔ)言理解能力相關(guān)的技術(shù),而這也是自然語(yǔ)言處理 ( NLP ) 的一部分。
語(yǔ)音識(shí)別的發(fā)展
語(yǔ)音識(shí)別的研究和發(fā)展情況基本分為三個(gè)主要時(shí)期:
人們對(duì)語(yǔ)音識(shí)別的活躍研究已經(jīng)進(jìn)行了幾十年,而事實(shí)上,即使是在二十世紀(jì)50年代和60年代,人們也一直在試圖構(gòu)建語(yǔ)音識(shí)別系統(tǒng)。然而,在2011年以及深度學(xué)習(xí)、大數(shù)據(jù)和云計(jì)算出現(xiàn)以前,這些解決方案還遠(yuǎn)遠(yuǎn)不足以被大規(guī)模采用以及商業(yè)使用。從本質(zhì)上來(lái)說(shuō),其算法還不夠好,當(dāng)時(shí)也沒(méi)有足夠的數(shù)據(jù)可以用于算法的訓(xùn)練,而且無(wú)法進(jìn)行高性能計(jì)算機(jī)也阻礙了研究人員運(yùn)行更復(fù)雜的實(shí)驗(yàn)。
深度學(xué)習(xí)產(chǎn)生的第一個(gè)重大影響發(fā)生在2011年,當(dāng)時(shí)有一個(gè)研究小組一同創(chuàng)造了第一個(gè)基于深度學(xué)習(xí)的語(yǔ)音識(shí)別系統(tǒng),而這個(gè)研究小組成員包括來(lái)自微軟的研究人員、李登(Li Deng)、董玉(Dong Yu)和亞歷克斯·阿賽羅(Alex Acero),以及杰弗里·希爾頓(Geoffrey Hinton)和他的學(xué)生喬治·達(dá)爾(George Dahl)。效果很即時(shí):其相對(duì)錯(cuò)誤率降低了25%以上。而這個(gè)系統(tǒng)也是深度學(xué)習(xí)領(lǐng)域進(jìn)行大規(guī)模發(fā)展和改進(jìn)的切入點(diǎn)。
此后,在有了更多數(shù)據(jù)、云計(jì)算可用后,蘋(píng)果(Siri)、亞馬遜 (Alexa) 和谷歌這類的大公司均采用了深度學(xué)習(xí)技術(shù),而且對(duì)其產(chǎn)品性能有著顯著的改善,并將其產(chǎn)品發(fā)布到了市場(chǎng)上。
在2014年底,遞歸神經(jīng)網(wǎng)絡(luò)獲得了更多的關(guān)注。與此同時(shí),遞歸神經(jīng)網(wǎng)絡(luò)與注意力模型、記憶網(wǎng)絡(luò)以及其他技術(shù)一起,掀起了這個(gè)領(lǐng)域發(fā)展的第三次浪潮。如今,幾乎每一種算法或者解決方案都采用了某種類型的神經(jīng)模型,而且實(shí)際上,幾乎所有的關(guān)于語(yǔ)音的研究都已轉(zhuǎn)向深度學(xué)習(xí)。
語(yǔ)音識(shí)別領(lǐng)域,神經(jīng)模型的最新進(jìn)展
過(guò)去六年中,語(yǔ)音識(shí)別在此前40多年的基礎(chǔ)上創(chuàng)造了更多的突破。這種非凡的新進(jìn)展主要?dú)w功于神經(jīng)網(wǎng)絡(luò)。要理解深度學(xué)習(xí)所帶來(lái)的影響以及它所扮演的角色,我們首先需要理解語(yǔ)音識(shí)別是如何工作的。
盡管近50年來(lái)語(yǔ)音識(shí)別一直屬于熱門(mén)研究領(lǐng)域,然而構(gòu)建能夠理解人類語(yǔ)言的及其仍舊是人工智能最具挑戰(zhàn)性的問(wèn)題之一,要實(shí)現(xiàn)這一目標(biāo)非常困難。語(yǔ)音識(shí)別由不少明確的任務(wù)組成:給出某種制定的人類語(yǔ)言,然后嘗試將其語(yǔ)音轉(zhuǎn)換成文字。然而,機(jī)器所識(shí)別的語(yǔ)音中可能包括一部分噪音,所以就要求其能夠從噪聲中提取出與對(duì)話相關(guān)的部分并將其轉(zhuǎn)換成有意義的文字。
語(yǔ)音識(shí)別系統(tǒng)的基本構(gòu)造塊
語(yǔ)音識(shí)別基本分為三個(gè)主要部分:
基于深度學(xué)習(xí)的改進(jìn)
深入學(xué)習(xí)對(duì)語(yǔ)音識(shí)別領(lǐng)域產(chǎn)生了巨大的影響。其影響非常深遠(yuǎn),即使在今天,幾乎每一個(gè)語(yǔ)音識(shí)別領(lǐng)域的解決方案都可能包含有一個(gè)或多個(gè)基于神經(jīng)模型的嵌入算法。
通常而言,人們對(duì)語(yǔ)音識(shí)別系統(tǒng)的評(píng)價(jià)都基于一個(gè)名為配電盤(pán)(SWBD)的行業(yè)標(biāo)準(zhǔn)。SWBD是一個(gè)語(yǔ)音語(yǔ)料庫(kù),整合了電話中的即興對(duì)話,包含音頻和人聲的副本。
語(yǔ)音識(shí)別系統(tǒng)的評(píng)估標(biāo)準(zhǔn)主要基于其誤字率(WER),誤字率是指語(yǔ)音識(shí)別系統(tǒng)識(shí)別錯(cuò)誤的單詞有多少。圖3展示了從2008年到2017的誤字率改進(jìn)情況。
圖3:誤字率改進(jìn)情況
從2008年到2011年,誤字率一直都處于一個(gè)穩(wěn)定的狀態(tài),位于23%至24%之間;而深度學(xué)習(xí)從2011年開(kāi)始出現(xiàn)時(shí)起,誤字率從23.6%降低至5.5%。這一重大發(fā)展對(duì)語(yǔ)音識(shí)別開(kāi)發(fā)而言是一種變革,其誤字率的改進(jìn)相對(duì)提高了近77%。誤字率的改善也產(chǎn)生了廣泛應(yīng)用,例如蘋(píng)果Siri、亞馬遜 Alexa、微軟 Cortana 和 Google Now,這些應(yīng)用也可以通過(guò)語(yǔ)音識(shí)別激活各種家居,如亞馬遜Echo 和 Google Home。
秘密武器
那么,系統(tǒng)產(chǎn)生如此大幅度改善的原因是什么呢?是不是有什么技術(shù)可以使得誤字率從23.6%減少到了5.5%呢?遺憾的是,并沒(méi)有其他單獨(dú)的技術(shù)、方法。
然而,深入學(xué)習(xí)和語(yǔ)音識(shí)別息息相關(guān),構(gòu)造出了一個(gè)可以涉及各種不同技術(shù)和方法的先進(jìn)系統(tǒng)。
例如,在信號(hào)位準(zhǔn)中,有著不同的基于神經(jīng)模型從信號(hào)中提取和增強(qiáng)語(yǔ)音本身的技術(shù) (圖4) 。同時(shí),還有能夠用更加復(fù)雜高效的基于神經(jīng)模型的方法取代經(jīng)典特征提取方法的技術(shù)。
圖4:信號(hào)位準(zhǔn)的分析
聲音和語(yǔ)言位準(zhǔn)中也包含有各種各樣不同的深度學(xué)習(xí)技術(shù),無(wú)論是聲音等級(jí)分類還是語(yǔ)言等級(jí)分類,都采用了不同類型基于神經(jīng)模型的架構(gòu)(見(jiàn)圖5)。
圖5:聲音和語(yǔ)言位準(zhǔn)分析
總而言之,建立一個(gè)先進(jìn)的系統(tǒng)并不是一項(xiàng)容易的工作,而實(shí)現(xiàn)將所有涉及的這些不同技術(shù)集成為一個(gè)系統(tǒng)的過(guò)程也不輕松。
前沿研究
近來(lái)在語(yǔ)音識(shí)別領(lǐng)域有這么多的突破,那么我們自然要問(wèn),語(yǔ)音識(shí)別接下來(lái)的突破口在哪?未來(lái)聚焦的研究點(diǎn)或?qū)囊韵氯齻€(gè)主要領(lǐng)域展開(kāi):算法、數(shù)據(jù)和可擴(kuò)展性。
隨著亞馬遜Echo 與 Google Home 的成功,許多公司正在發(fā)布能夠識(shí)別理解語(yǔ)音的智能揚(yáng)聲器和家庭設(shè)備。然而,這些設(shè)備的推出又帶來(lái)了一個(gè)新問(wèn)題:用戶說(shuō)話時(shí)往往距離麥克風(fēng)不是很近,例如用戶用手機(jī)對(duì)話時(shí)的狀態(tài)。而處理遠(yuǎn)距離語(yǔ)音識(shí)別又是一個(gè)具有挑戰(zhàn)性的問(wèn)題,很多研究小組也正在積極研究這個(gè)問(wèn)題。如今,創(chuàng)新的深度學(xué)習(xí)和信號(hào)處理技術(shù)已經(jīng)可以提高語(yǔ)音識(shí)別的質(zhì)量了。
語(yǔ)音識(shí)別系統(tǒng)的關(guān)鍵問(wèn)題之一是缺乏現(xiàn)實(shí)生活的數(shù)據(jù)。例如,很難獲得高質(zhì)量的遠(yuǎn)程通話數(shù)據(jù)。但是,有很多來(lái)自其他來(lái)源的數(shù)據(jù)可用。一個(gè)問(wèn)題是:我們可以創(chuàng)建合適的合成器來(lái)生成培訓(xùn)用的數(shù)據(jù)嗎?今天,生成合成數(shù)據(jù)并培訓(xùn)系統(tǒng)正在受到重視。
為了訓(xùn)練語(yǔ)音識(shí)別系統(tǒng),我們需要同時(shí)具備音頻和轉(zhuǎn)錄的數(shù)據(jù)集。人工轉(zhuǎn)錄是繁瑣的工作,有時(shí)會(huì)導(dǎo)致大量音頻的問(wèn)題。因此,就有了對(duì)半監(jiān)督培訓(xùn)的積極研究,并為識(shí)別者建立了適當(dāng)程度的信心。
由于深度學(xué)習(xí)與語(yǔ)音識(shí)別相結(jié)合,因此對(duì)CPU和內(nèi)存的占用量不容小覷。隨著用戶大量采用語(yǔ)音識(shí)別系統(tǒng),構(gòu)建經(jīng)濟(jì)高效的云解決方案是一個(gè)具有挑戰(zhàn)性的重要問(wèn)題。對(duì)如何降低計(jì)算成本并開(kāi)發(fā)更有效的解決方案的研究一直在進(jìn)行。今天,大多數(shù)語(yǔ)音識(shí)別系統(tǒng)都是基于云的,并且具有必須解決的兩個(gè)具體問(wèn)題:延遲和持續(xù)連接。延遲是需要立即響應(yīng)的設(shè)備(如機(jī)器人)的關(guān)鍵問(wèn)題。在長(zhǎng)時(shí)間監(jiān)聽(tīng)的系統(tǒng)中,由于帶寬成本,持續(xù)連接是一個(gè)問(wèn)題。因此,還需要對(duì)邊緣語(yǔ)音識(shí)別的研究,它必須保持基于云的系統(tǒng)的質(zhì)量。
近年來(lái),語(yǔ)音識(shí)別的表現(xiàn)和應(yīng)用出現(xiàn)了巨大的飛躍。我們離完全解決這個(gè)問(wèn)題還有多遠(yuǎn)?答案也許五年、也許十年,但仍然有一些挑戰(zhàn)性的問(wèn)題需要時(shí)間來(lái)解決。
第一個(gè)問(wèn)題是對(duì)噪音的敏感性問(wèn)題。一個(gè)語(yǔ)音識(shí)別系統(tǒng)在非常接近麥克風(fēng)而且不嘈雜的環(huán)境中運(yùn)行得很好——然而,如果說(shuō)話的聲音比較遠(yuǎn)或者環(huán)境很嘈雜能迅速降低系統(tǒng)的效能。
第二個(gè)必須解決的問(wèn)題是語(yǔ)言擴(kuò)展:世界上大約有7000種語(yǔ)言,絕大多數(shù)語(yǔ)音識(shí)別系統(tǒng)能夠支持的語(yǔ)言數(shù)量大約是八十種。擴(kuò)展系統(tǒng)帶來(lái)了巨大的挑戰(zhàn)。
此外,我們?nèi)鄙僭S多語(yǔ)言的數(shù)據(jù),而且匱乏數(shù)據(jù)資源則難以創(chuàng)建語(yǔ)音識(shí)別系統(tǒng)。
結(jié)論
深度學(xué)習(xí)在語(yǔ)音識(shí)別和對(duì)話式AI領(lǐng)域刻下了深深的印記。而鑒于該技術(shù)最近獲得的突破,我們真的正處于一場(chǎng)革命的邊緣。
而最大的問(wèn)題在于,我們是否準(zhǔn)備贏得語(yǔ)音識(shí)別領(lǐng)域的技術(shù)挑戰(zhàn),并像其他商品化技術(shù)一樣開(kāi)始運(yùn)用它呢?或者說(shuō),是否還有另一個(gè)新的解決方案正等待著我們?nèi)グl(fā)現(xiàn)?畢竟,語(yǔ)音識(shí)別的最新進(jìn)展只是未來(lái)科技藍(lán)圖的一小塊:語(yǔ)言理解本身就是一個(gè)復(fù)雜而且或許更加強(qiáng)大的一個(gè)領(lǐng)域。
<來(lái)源 :OREILLY;編譯:科技行者>
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過(guò)交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開(kāi)辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過(guò)讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問(wèn)題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問(wèn)題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過(guò)創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開(kāi)發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過(guò)學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來(lái)了效率和精度的雙重突破。