2022年6月30日,北京——中國移動(dòng)攜手高通技術(shù)公司,成功實(shí)現(xiàn)并展示了業(yè)內(nèi)首次基于5G切片的端邊協(xié)同分離渲染(split-rendering)無界XR技術(shù)演示。此項(xiàng)演示為5G切片技術(shù)在XR領(lǐng)域的應(yīng)用和創(chuàng)新開啟了全新篇章。
基于5G切片的端邊協(xié)同分離渲染XR技術(shù)展示,是利用愛奇藝奇遇Dream Pro VR一體機(jī)(搭載驍龍® XR2平臺)、采用中國移動(dòng)終端切片解決方案的小米智能手機(jī)(搭載驍龍®移動(dòng)平臺)以及中國移動(dòng)研究院聯(lián)合共進(jìn)、世炬研制的5G家庭小基站(基于高通® FSM100 5G RAN平臺)共同完成,端到端地驗(yàn)證了在端邊協(xié)同分離渲染架構(gòu)下,XR用戶能夠利用5G提供的高速率低時(shí)延傳輸來協(xié)同邊緣云側(cè)進(jìn)行實(shí)時(shí)渲染,同時(shí)結(jié)合XR終端側(cè)的本地優(yōu)化渲染來提供低時(shí)延沉浸式無界XR體驗(yàn),為未來XR用戶隨時(shí)隨地享受栩栩如生的視覺效果和無拘無束的XR體驗(yàn)奠定了堅(jiān)實(shí)的基礎(chǔ)。該演示依托中國移動(dòng)5G切片技術(shù)所提供的高帶寬、低時(shí)延、高性能定制化業(yè)務(wù)能力,進(jìn)一步驗(yàn)證了5G技術(shù)的橫向擴(kuò)展能力,可以支持端邊協(xié)同分離渲染的無界XR等新業(yè)務(wù)的大規(guī)模商業(yè)化。此外,該演示也進(jìn)一步驗(yàn)證了5G家庭小基站可以為多個(gè)同時(shí)在線的XR用戶提供出色的高速體驗(yàn)。
中國移動(dòng)研究院院長黃宇紅表示:“作為國內(nèi)領(lǐng)先的移動(dòng)通信運(yùn)營商,中國移動(dòng)一直在積極探索針對XR的‘業(yè)務(wù)-網(wǎng)絡(luò)-算力’一體化解決方案,如何通過5G切片技術(shù)使5G終端用戶獲得更優(yōu)質(zhì)的用戶體驗(yàn)是其中的關(guān)鍵一環(huán),這次已經(jīng)在演示中實(shí)現(xiàn)了突破。本次無界XR技術(shù)演示通過采用中國移動(dòng)研究院《5G智能終端切片白皮書》中介紹的Modem-Centric實(shí)現(xiàn),對推進(jìn)5G切片服務(wù)的商用進(jìn)展具有重大意義,是5G智能終端切片領(lǐng)域的又一里程碑成果。此外,本次演示使用的家庭小基站將為無界XR這類新興業(yè)務(wù)在智慧家庭場景的應(yīng)用提供更優(yōu)質(zhì)的網(wǎng)絡(luò)服務(wù)。”
高通技術(shù)公司工程技術(shù)高級副總裁莊思民(John Smee)表示:“高通技術(shù)公司致力于通過5G端到端的優(yōu)化推動(dòng)移動(dòng)生態(tài)系統(tǒng)向前發(fā)展,并為XR設(shè)備及更多行業(yè)的新用例和新體驗(yàn)帶來出色的5G系統(tǒng)性能。本次無界XR技術(shù)演示把元宇宙的三項(xiàng)核心技術(shù)——XR、5G和邊緣云計(jì)算結(jié)合在了一起。這是將5G設(shè)計(jì)的功能、概念和靈活性轉(zhuǎn)化為創(chuàng)新增強(qiáng)體驗(yàn)的成功實(shí)踐。這彰顯了公司面向未來十年持續(xù)推動(dòng)5G和元宇宙發(fā)展的技術(shù)創(chuàng)新力和領(lǐng)導(dǎo)力。”
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。