東京奧運(yùn)會馬上開幕,今年幾乎沒有現(xiàn)場觀眾,完全依靠電視網(wǎng)絡(luò)直播,成為一次真正意義上的“云上奧運(yùn)”。7月22日,國際奧委會主席巴赫在東京舉行的發(fā)布會現(xiàn)場表示,今年奧運(yùn)會將首次采用阿里云支撐全球轉(zhuǎn)播,這是奧運(yùn)邁入數(shù)字時代的重要一步。對這屆特殊的奧運(yùn)會來說,技術(shù)至關(guān)重要,感謝阿里巴巴的云技術(shù),今年將是數(shù)字化水平最高的一屆奧運(yùn)。
東京自12日起進(jìn)入緊急狀態(tài),在嚴(yán)格的防疫控制下,東京奧運(yùn)會將是歷史上首次觀眾席接近“空場”的奧運(yùn)賽事,東京地區(qū)、北海道和福島縣的所有比賽將空場舉行,僅有自行車和足球項目的三個賽場允許觀眾現(xiàn)場觀看。
對空場舉辦奧運(yùn),巴赫表示遺憾。但他認(rèn)為,在這種情況下,科技的參與至關(guān)重要,借助云上轉(zhuǎn)播等科技創(chuàng)新,人們與奧運(yùn)可以更緊密地聯(lián)系在一起,技術(shù)的貢獻(xiàn)是巨大的,我們有了一個全新的方式來去觀看奧運(yùn)會。這屆奧運(yùn)會通過電視和數(shù)字平臺轉(zhuǎn)播合作伙伴的報道覆蓋面,將比以往任何一屆奧運(yùn)會都要大。
對于本屆奧運(yùn)首次采用的云上轉(zhuǎn)播,巴赫表示,我們一起合作打造了云上的轉(zhuǎn)播平臺OBS Cloud,這是今年一項重大的創(chuàng)新。在轉(zhuǎn)播平臺上提供的3D追蹤技術(shù),為觀眾提供了創(chuàng)新的觀看體驗。
2018年,阿里云與奧林匹克廣播服務(wù)公司聯(lián)手打造奧林匹克轉(zhuǎn)播云OBS Cloud。今年,奧林匹克轉(zhuǎn)播云在東京奧運(yùn)會上首次投入使用,為全球轉(zhuǎn)播機(jī)構(gòu)提供云上轉(zhuǎn)播支持。這將是奧運(yùn)歷史上首次采用云計算支撐全球轉(zhuǎn)播。
阿里云智能總裁張建鋒表示,對今年這屆特殊的奧運(yùn)來說,數(shù)字化不僅是一項挑戰(zhàn),更是機(jī)遇。對于全球觀眾,將首次以“云”的方式觀看奧運(yùn);對于全球媒體,基于OBS Cloud,轉(zhuǎn)播方不僅可以接收賽事內(nèi)容,還可以在平臺上建立自己的內(nèi)容創(chuàng)作、管理和分發(fā)系統(tǒng)。這使得轉(zhuǎn)播方工作人員不必親赴東京奧運(yùn)現(xiàn)場,可以遠(yuǎn)程完成轉(zhuǎn)播和編輯工作。
此外,今年也是第一屆以超高清、高動態(tài)范圍制作的奧運(yùn)會,細(xì)節(jié)豐富度較標(biāo)準(zhǔn)高清格式多出四倍。這些高清賽事內(nèi)容將通過奧林匹克轉(zhuǎn)播云,向全球轉(zhuǎn)播方分發(fā)。數(shù)據(jù)顯示,在東京奧運(yùn)會的17天賽期內(nèi),奧林匹克廣播服務(wù)公司將產(chǎn)出超過9500小時的體育賽事轉(zhuǎn)播內(nèi)容,比2016年里約奧運(yùn)會增加約30%。
以往,奧運(yùn)會現(xiàn)場報道需要建設(shè)面積龐大的國際轉(zhuǎn)播中心,并專門部署臨時性的遠(yuǎn)程轉(zhuǎn)播基礎(chǔ)設(shè)施,包括大規(guī)模外部裝置、編輯套件和網(wǎng)絡(luò)連接。這一過程耗時頗長、斥資不菲,在奧運(yùn)會使用結(jié)束后,還需將裝置分別拆卸并運(yùn)回各國。
今年OBS Cloud投入使用將逐漸改變這樣的情況。據(jù)OBS數(shù)據(jù),今年OBS Clould的出現(xiàn),讓東京奧運(yùn)會的國際轉(zhuǎn)播中心面積縮小25%,現(xiàn)場工作人員減少27%。此外,OBS Cloud還提供3D運(yùn)動員追蹤技術(shù),基于人工智能和機(jī)器視覺技術(shù),在田徑短跑項目中,觀眾可以看到每個運(yùn)動員的實時奔跑速度。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運(yùn)動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運(yùn)動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。