CNET科技資訊網(wǎng) 11月23日 北京消息(文/周雅):在今年早些時候,百度曾經(jīng)利用情感語音合成技術(shù)還原了張國榮聲音,完成了一場“張國榮”與粉絲的“隔空對話”,從粉絲們的普遍反應(yīng)來看,效果是可以的。而這只是百度語音的技術(shù)之一。
昨天,百度語音開放平臺上線三周年,百度公司首席科學(xué)家吳恩達對外介紹了百度四項最新語音技術(shù)——情感合成、遠場方案、喚醒二期技術(shù)和長語音方案,這些技術(shù)將免費開放給用戶和開發(fā)者。
“這些技術(shù)有很大的潛力,去徹底改變?nèi)藱C交互的效率和辦法。未來語音技術(shù)在很多應(yīng)用場景有很好的機會,將為人機交互帶來巨大的改變。”吳恩達表示。
因為語音技術(shù)的加強,吳恩達對人工智能的未來很有信心,陪伴機器人、個性化私教、音樂作曲、機器人醫(yī)生都不是說說而已,人工智能的技術(shù)創(chuàng)造了很多可能,百度沒有辦法探索這些可能,所以就做一個背后的技術(shù)推手:“希望可以支持你們在非常有潛力的項目上探索,有非常好的結(jié)果。”
比如,開發(fā)者可以利用新的接口,使語音識別距離增加到3-5米,將設(shè)備的語音喚醒率提升到95%以上同時更省電誤報更少,或提升長時間語音識別的準確率問題。這將為語音技術(shù)帶來遠比現(xiàn)在更多的想象空間,而不只是遙控電視或解鎖手機。
百度希望這些技術(shù)能解決用戶在語音交互場合中普遍困擾的一些關(guān)鍵問題,腦洞開一開,才有各種新體驗。比如,百度把語音輸入放進自家產(chǎn)品中,包括手機百度、百度地圖、百度輸入法。
再比如,百度最近還把度秘放進各類硬件,變成“小度機器人人機語音交互點餐”,已在上??系禄炫灥旯ぷ鳎蛇h距離隨時應(yīng)答點餐。后者則已經(jīng)在諸多內(nèi)容記錄、智能客服、視頻轉(zhuǎn)寫等應(yīng)用場景表現(xiàn)出巨大的想象空間。
來自斯坦福大學(xué)的人工智能專家James Landay也分享了一項與百度合作的最新研究成果,該研究發(fā)現(xiàn),智能手機在語音輸入時,速度比鍵盤輸入快3倍。他表示,“近兩年,受益于大數(shù)據(jù)和深度學(xué)習技術(shù)的不斷發(fā)展,語音識別技術(shù)突飛猛進,速度和準確性都有了進步。”
百度語音開放平臺目前的合作伙伴已涵蓋多個領(lǐng)域和場景,包括智能手機領(lǐng)域的聯(lián)想、中興;智能家居領(lǐng)域的長虹智能電視、康佳智能電視、SONY智能電視;汽車行業(yè)的特斯拉、途勝;智能設(shè)備領(lǐng)域的惠普、艾米通訊;智能服務(wù)領(lǐng)域的攜程、手機QQ閱讀等。
在“愛奇藝”手機客戶端,借助百度語音開放平臺,每天有百萬以上的愛奇藝用戶使用語音搜索,其中80%以上轉(zhuǎn)化為有效點擊。
《讀者》雜志也已經(jīng)使用百度情感語音為旗下雜志制作語音版。讀者甘肅數(shù)碼科技有限公司總經(jīng)理金大時說,讀者“數(shù)字農(nóng)家書屋”已在甘肅慶陽市試點成功,覆蓋65個新農(nóng)村,“很多不識字的老年人和留守兒童,語音合成讓他們也享受到了閱讀的樂趣。”
百度語音開放平臺自2013年10月上線以來,每日在線語音識別要求從2013年的500萬上升到今天的1億4千萬,在線語音合成每日請求達2億,開發(fā)者數(shù)量超過14萬。
百度方面表示,百度語音識別準確率目前達97%,今年2月,百度深度語音識別系統(tǒng)Deep Speech 2入選MIT 2016十大突破技術(shù)。包括語音技術(shù)在內(nèi)的百度大腦,入選2016第三屆烏鎮(zhèn)世界互聯(lián)網(wǎng)大會15大領(lǐng)先科技成果。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟大學(xué)團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學(xué)習訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。