2016年6月27日,樂視在北京召開以“聲音的革命”為主題的發(fā)布會。在現(xiàn)場宣布了國際著名鋼琴家李云迪擔任CDLA形象大使,并成立CDLA產業(yè)聯(lián)盟。其中哈曼國際、Fiil知名硬件廠商以及阿里音樂、庫客音樂、荔枝FM、唱吧、喜馬拉雅燈內容平臺參與其中。工信部電子工業(yè)標準研究院主任、全國音視頻標委會秘書長張素兵博士給予了極大的肯定還表示:CDLA標準有可能成為全行業(yè)的標準。
一個月前,樂視召開“千萬里程碑”發(fā)布會宣布樂視手機開售一年銷量突破1000萬臺,而在4月份單月和6月1日-18日期間,樂視手機銷量雙雙突破200萬臺,對于一家新晉手機廠商來講,是一份令人驚艷的答卷。
而就在此次發(fā)布會中,樂視移動營銷傳播部總經理柳志卿又一次宣布新的消息,樂視二代手機自4月26日發(fā)售短短兩月,銷售已經超過400萬部,而與之搭配的CDLA耳機也售出82萬條,并且目前仍處于供不應求的狀態(tài),正在加緊備貨滿足用戶的購買需求。
樂視第二代手機作為全球首批采用CDLA標準的智能終端得到了中外廠商及媒體的關注,甚至有些業(yè)內人士感嘆,蘋果在生態(tài)模式方面逐漸效仿樂視,難道在音頻技術方面也要學習?
值得一提的是,通過用戶數(shù)據(jù)調查顯示有四成用戶因為CDLA而選擇樂視第二代手機,這個調查顯示還非常令人出乎意料,作為一個全新的音頻標準為何迅速得到行業(yè)的認可和用戶的傾愛?
在“聲音的革命”發(fā)布會中,不少嘉賓都認為,現(xiàn)在音頻產業(yè)發(fā)展瓶頸并非在音樂創(chuàng)造、應用方面,而是在技術上。當前,大多音樂提供柳高品質的音樂,但是輸出仍舊采用3.5mm模擬音頻,大大降低了體驗感受。反觀CDLA標準,真正實現(xiàn)了全程數(shù)字無損。
CDLA標準是端到端全流程純數(shù)字化無損音頻解碼標準,基于此標準,為用戶提供全流程純數(shù)字化無損音樂體驗。方案中包含Type-C全數(shù)字化無損音樂手機和CDLA耳機。
其優(yōu)勢于避免了傳統(tǒng)3.5mm模擬音頻架構的種種缺陷,實現(xiàn)了純數(shù)字化。從手機端開始直到USB Type-C 耳機,最低支持96K/24bit采樣率,該音頻是CD音質數(shù)據(jù)量的3.3倍,細節(jié)比CD更豐富。
以上我們可以看到,CDLA標準不僅僅在技術領先,為用戶帶來了更加極致的音樂體驗,未來可發(fā)展空間也是巨大的,進一步實現(xiàn)智能化、數(shù)字化和生態(tài)化。發(fā)布會中,工信部電子工業(yè)標準研究院主任、全國音視頻標委會秘書長張素兵博士給予CDLA極大的肯定還表示:CDLA標準有可能成為全行業(yè)的標準。
毫無疑問,CDLA面世僅僅兩個月便得到了用戶、硬件廠商、內容平臺及音樂人的認可,并且成立CDLA產業(yè)聯(lián)盟,初步形成了生態(tài)閉環(huán)的趨勢。在未來,隨著內容資源的增多、硬件產品的豐富以及高品質低門檻的趨勢,CDLA必定將會得到用戶、廠商、內容平臺的認可。
不過,行業(yè)標準的建立、實行、推廣不僅僅依靠單純的技術實力,還需用得到很好的推廣、認可及用戶量。比如,在樂視手機初次使用Type-C接口時就有著廣泛質疑,但是隨著樂視手機暢銷及用戶認可,一年以后已經有許多手機、筆記本廠商跟進,推出了Type-C接口的智能重擔設備,已經漸漸取代傳統(tǒng)Mirco-USB接口。
再看CDLA,樂視發(fā)起成立CDLA產業(yè)聯(lián)盟,不僅提供專利合作及技術標準白皮書,還聯(lián)合標準機構、知名硬件廠商參與其中,并且還邀請國際著名鋼琴家李云迪作為推廣大使,進一步讓更多的用戶了解、熟知CDLA。此外,樂視手機二代2個月銷量超400萬,隨著產能增加將會有更多的用戶使用到樂視二代手機,并感受到CDLA帶來的出色音質。
目前,樂視已經對CDLA在硬件廠商、內容平臺、標準機構、音樂人等廣泛合作,逐漸形成CDLA的生態(tài)閉環(huán)。此外,依靠樂視二代手機產品優(yōu)勢進一步促使更多用戶體驗,CDLA推廣大使李云迪也將助力CDLA在更專業(yè)的領域獲得認知。由此看來,CDLA產業(yè)逐漸明晰,成為行業(yè)標準也許只是時間問題。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質量,在多項測試中超越包括Sora在內的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質量樣本的訓練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經網(wǎng)絡技術,通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。