北京時間3月3日消息,F(xiàn)irefox瀏覽器開發(fā)商Mozilla正在與谷歌Chrome團隊的布蘭登-瓊斯(Brandon Jones)合作開發(fā)第一個官方版本的WebVR API,希望對互聯(lián)網(wǎng)虛擬現(xiàn)實內(nèi)容實現(xiàn)標準化。
隨著Oculus Rift、HTC Vive和PlayStation VR等產(chǎn)品的相繼上市,2016年必將成為虛擬現(xiàn)實的決定性年份。而隨著虛擬現(xiàn)實硬件開始逐漸進入尋常百姓家,軟件開發(fā)商無疑也會采取行動,Mozilla便是其中之一。
假設(shè)WebVR API果真能夠形成氣候,可能就會實現(xiàn)網(wǎng)絡(luò)虛擬現(xiàn)實內(nèi)容的標準化。
隨著1.0版WebVR API的完成,Mozilla已經(jīng)收到了許多開發(fā)者發(fā)回的反饋。值得注意的是,該公司已經(jīng)改進了如下內(nèi)容:
——以虛擬現(xiàn)實為核心的設(shè)備渲染和顯示標準;
——WebVR頁面之間的遍歷鏈接能力;
——能夠枚舉虛擬現(xiàn)實輸入的輸入處理機制,包括6軸動作手柄;
——適應(yīng)坐姿和站姿兩種體驗;
——使用桌面和移動平臺。
在獲得認可后,Mozilla還計劃于今年上半年在Firefox Nightly中推出一個WebVR 1.0的工作版本。如果你勇于探索,可以從布蘭登-瓊斯那里下載幾個實驗版Chromium瀏覽器,體驗這種API的概念驗證效果。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠?qū)碗s指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領(lǐng)域帶來了效率和精度的雙重突破。