7月5日,由莫斯科國立大學(xué)舉辦的MSU2022世界編碼器大賽硬件編碼器成績?nèi)拷視???焓諷treamLake首款自研智能視頻處理芯片StreamLake-200(SL200)奪得4K和1080P賽道24項指標中的16項第一。
據(jù)悉,這是快手StreamLake首次參加MSU世界編碼器大賽,在全部6個子賽道中斬獲5個“最佳ASIC編碼器”稱號,標志著SL200芯片在高密度、高質(zhì)量及超高質(zhì)量下均達到業(yè)界領(lǐng)先水平。
MSU大賽在視頻壓縮領(lǐng)域極具影響力,至今已連續(xù)舉辦了十七屆,吸引了國內(nèi)外多家知名科技企業(yè)和組織參賽。本次MSU2022世界編碼器大賽硬件編碼器賽道共有14個國內(nèi)外企業(yè)參賽,包括騰訊、字節(jié)跳動、Intel、英偉達、AMD等。比賽分為4K30fps、4K60fps、4K120fps、1080P60fps、1080P120fps、1080P240fps共6個子賽道,快手StreamLake參加了全部硬件賽道比賽。
隨著視頻行業(yè)的發(fā)展,4K超高清在短視頻、長視頻、廣電、高質(zhì)量監(jiān)控等領(lǐng)域的應(yīng)用越來越廣泛。在多年積累的基礎(chǔ)上,SL200芯片采用了多項快手自主創(chuàng)新技術(shù),對4K/8K超高清視頻進行了針對性的優(yōu)化,實現(xiàn)了業(yè)界領(lǐng)先的清晰度和流暢度,并達到極高的編解碼密度。本屆MSU比賽中,SL200芯片在1080P和4K兩個賽道都斬獲佳績,顯示了該芯片廣泛的實用范圍,將對我國未來智能視頻行業(yè)的發(fā)展起到基石的作用。
該SoC芯片集成了快手領(lǐng)先的視頻編解碼、圖像處理、AI推理、內(nèi)容自適應(yīng)編碼等關(guān)鍵技術(shù),具備高質(zhì)量、高密度、智能化的特點。SL200芯片于2022年6月流片成功之后,快手團隊設(shè)計研發(fā)了基于該芯片的板卡和服務(wù)器系統(tǒng),并完成了數(shù)月的大規(guī)?;叶群蛪毫y試,目前正逐步全面應(yīng)用于快手短視頻和直播業(yè)務(wù),并已對外開放測試,聯(lián)合多家合作伙伴共同探索更為廣闊的應(yīng)用場景。
目前,直播和短視頻已經(jīng)成為了視頻消費中的重要部分,意味著視頻流量迎來快速增長以及帶寬成本不斷增加。SL200芯片具有“高編碼質(zhì)量+高密度”的特性,可極大限度降低帶寬成本,同時提供行業(yè)領(lǐng)先的編碼質(zhì)量。其中,高編碼質(zhì)量相比x265 medium節(jié)省約30%碼率,另外支持畫質(zhì)增強;高轉(zhuǎn)碼密度方面,單卡(2顆芯片)支持8路4K60fps編碼,還支持“一進多出”的轉(zhuǎn)碼模式。
隨著4K/8K超高清視頻被廣泛應(yīng)用于大型賽事、重要活動的直播/轉(zhuǎn)播之中,為了提供更好的用戶體驗,廣電行業(yè)在質(zhì)量、穩(wěn)定性、密度方面都對視頻轉(zhuǎn)碼方案提出了更高的要求。SL200芯片憑借"AI+高質(zhì)量視頻編碼"特性,相比國內(nèi)某頭部廣電編碼器廠商可以節(jié)省約40%的碼率。另外SL200芯片提供了ABR、CBR、CRF三種碼控方案以應(yīng)對有線電視、IPTV、OTT和新媒體場景對于碼率控制的訴求。
而在云游戲場景下,對延時有著極高要求,例如射擊類游戲,對操作精準度有很高要求,通常需要將游戲響應(yīng)延遲控制在50ms以內(nèi);VR等肢體配合類游戲,整個游戲鏈路延遲需要低于25ms。在整個云游戲的延遲通路中,通常對視頻編碼延遲的要求是控制在6ms內(nèi)。SL200芯片具有“低延遲+更好的編碼質(zhì)量”的特性,在4ms的超低延時下,可以獲得1080P超清畫質(zhì),并且相比某主流GPU在可節(jié)省約14%的碼率。
此外,快手StreamLake搭建了基于SL200芯片的視頻基礎(chǔ)設(shè)施,正式發(fā)布StreamLake硬件編碼器產(chǎn)品,利用快手領(lǐng)先的視頻編解碼及增強和修復(fù)算法,幫助客戶提升多媒體處理環(huán)節(jié)的質(zhì)量與效率,可應(yīng)用于IPTV、OTT、廣電、智能監(jiān)控、互聯(lián)網(wǎng)視頻直播等多個領(lǐng)域的超高清直播平臺建設(shè)及視頻壓縮編碼。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。