東京奧運(yùn)會(huì)馬上開幕,今年幾乎沒有現(xiàn)場(chǎng)觀眾,完全依靠電視網(wǎng)絡(luò)直播,成為一次真正意義上的“云上奧運(yùn)”。7月22日,國(guó)際奧委會(huì)主席巴赫在東京舉行的發(fā)布會(huì)現(xiàn)場(chǎng)表示,今年奧運(yùn)會(huì)將首次采用阿里云支撐全球轉(zhuǎn)播,這是奧運(yùn)邁入數(shù)字時(shí)代的重要一步。對(duì)這屆特殊的奧運(yùn)會(huì)來(lái)說,技術(shù)至關(guān)重要,感謝阿里巴巴的云技術(shù),今年將是數(shù)字化水平最高的一屆奧運(yùn)。
東京自12日起進(jìn)入緊急狀態(tài),在嚴(yán)格的防疫控制下,東京奧運(yùn)會(huì)將是歷史上首次觀眾席接近“空?qǐng)?rdquo;的奧運(yùn)賽事,東京地區(qū)、北海道和福島縣的所有比賽將空?qǐng)雠e行,僅有自行車和足球項(xiàng)目的三個(gè)賽場(chǎng)允許觀眾現(xiàn)場(chǎng)觀看。
對(duì)空?qǐng)雠e辦奧運(yùn),巴赫表示遺憾。但他認(rèn)為,在這種情況下,科技的參與至關(guān)重要,借助云上轉(zhuǎn)播等科技創(chuàng)新,人們與奧運(yùn)可以更緊密地聯(lián)系在一起,技術(shù)的貢獻(xiàn)是巨大的,我們有了一個(gè)全新的方式來(lái)去觀看奧運(yùn)會(huì)。這屆奧運(yùn)會(huì)通過電視和數(shù)字平臺(tái)轉(zhuǎn)播合作伙伴的報(bào)道覆蓋面,將比以往任何一屆奧運(yùn)會(huì)都要大。
對(duì)于本屆奧運(yùn)首次采用的云上轉(zhuǎn)播,巴赫表示,我們一起合作打造了云上的轉(zhuǎn)播平臺(tái)OBS Cloud,這是今年一項(xiàng)重大的創(chuàng)新。在轉(zhuǎn)播平臺(tái)上提供的3D追蹤技術(shù),為觀眾提供了創(chuàng)新的觀看體驗(yàn)。
2018年,阿里云與奧林匹克廣播服務(wù)公司聯(lián)手打造奧林匹克轉(zhuǎn)播云OBS Cloud。今年,奧林匹克轉(zhuǎn)播云在東京奧運(yùn)會(huì)上首次投入使用,為全球轉(zhuǎn)播機(jī)構(gòu)提供云上轉(zhuǎn)播支持。這將是奧運(yùn)歷史上首次采用云計(jì)算支撐全球轉(zhuǎn)播。
阿里云智能總裁張建鋒表示,對(duì)今年這屆特殊的奧運(yùn)來(lái)說,數(shù)字化不僅是一項(xiàng)挑戰(zhàn),更是機(jī)遇。對(duì)于全球觀眾,將首次以“云”的方式觀看奧運(yùn);對(duì)于全球媒體,基于OBS Cloud,轉(zhuǎn)播方不僅可以接收賽事內(nèi)容,還可以在平臺(tái)上建立自己的內(nèi)容創(chuàng)作、管理和分發(fā)系統(tǒng)。這使得轉(zhuǎn)播方工作人員不必親赴東京奧運(yùn)現(xiàn)場(chǎng),可以遠(yuǎn)程完成轉(zhuǎn)播和編輯工作。
此外,今年也是第一屆以超高清、高動(dòng)態(tài)范圍制作的奧運(yùn)會(huì),細(xì)節(jié)豐富度較標(biāo)準(zhǔn)高清格式多出四倍。這些高清賽事內(nèi)容將通過奧林匹克轉(zhuǎn)播云,向全球轉(zhuǎn)播方分發(fā)。數(shù)據(jù)顯示,在東京奧運(yùn)會(huì)的17天賽期內(nèi),奧林匹克廣播服務(wù)公司將產(chǎn)出超過9500小時(shí)的體育賽事轉(zhuǎn)播內(nèi)容,比2016年里約奧運(yùn)會(huì)增加約30%。
以往,奧運(yùn)會(huì)現(xiàn)場(chǎng)報(bào)道需要建設(shè)面積龐大的國(guó)際轉(zhuǎn)播中心,并專門部署臨時(shí)性的遠(yuǎn)程轉(zhuǎn)播基礎(chǔ)設(shè)施,包括大規(guī)模外部裝置、編輯套件和網(wǎng)絡(luò)連接。這一過程耗時(shí)頗長(zhǎng)、斥資不菲,在奧運(yùn)會(huì)使用結(jié)束后,還需將裝置分別拆卸并運(yùn)回各國(guó)。
今年OBS Cloud投入使用將逐漸改變這樣的情況。據(jù)OBS數(shù)據(jù),今年OBS Clould的出現(xiàn),讓東京奧運(yùn)會(huì)的國(guó)際轉(zhuǎn)播中心面積縮小25%,現(xiàn)場(chǎng)工作人員減少27%。此外,OBS Cloud還提供3D運(yùn)動(dòng)員追蹤技術(shù),基于人工智能和機(jī)器視覺技術(shù),在田徑短跑項(xiàng)目中,觀眾可以看到每個(gè)運(yùn)動(dòng)員的實(shí)時(shí)奔跑速度。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。