北京時間4月20日消息,據(jù)《連線》雜志網(wǎng)絡(luò)版報道,寶馬集團旗下MINI品牌近日宣布,將在本周開幕的上海車展上推出一款增強現(xiàn)實眼鏡,車主佩戴后可顯示車速、導(dǎo)航等有用信息,提升駕乘體驗。這款產(chǎn)品目前還只是原型產(chǎn)品,但有望在幾個月內(nèi)投入生產(chǎn)。
寶馬MINI此前表示,其用戶最為看重車的樣式和性能,因此,外界也很好奇該公司的用戶是否會接受一款增強現(xiàn)實眼鏡。盡管如此,寶馬MINI仍然認(rèn)為,增強現(xiàn)實眼鏡是擴大車主視野、顯示有用信息的最佳工具
最新款寶馬MINI車型的車頂配備基于攝像頭的主動安全功能,比如行人檢測、避免碰撞等。另外,其還具有一個頭戴式顯示器,可以將速度、導(dǎo)航等信息投射到擋風(fēng)玻璃上。
頭戴式顯示器是當(dāng)今高檔車型上一項常見且深受歡迎的功能,但寶馬MINI希望能讓重要信息直接出現(xiàn)在用戶眼前,而不是擋風(fēng)玻璃上。
大約18個月前,寶馬向高通公司尋求幫助,希望能開發(fā)出一套增強現(xiàn)實系統(tǒng),當(dāng)車主頭部活動時,相關(guān)信息可以顯示于他們佩戴的眼鏡上面。寶馬Mini增強現(xiàn)實 眼鏡就是在這種背景下誕生的。這款產(chǎn)品將亮相本周開幕的上海車展,在此之前,《連線》雜志記者亞歷克斯·戴維斯(Alex Davies)先試用了一番,并對其性能留下了深刻印象。
若想做到寶馬公司所要求的事情,高通將運動到圖像顯示的延遲時間(motion-to-photon latency)降至最短變得至關(guān)重要:所謂的motion-to-photon latency,是指系統(tǒng)看到東西并進(jìn)行處理,然后添加圖形所需要的時間。
鑒于這種問題永遠(yuǎn)無法徹底根除,高通只能通過預(yù)測車主頭部如何移動,同時將攝像頭當(dāng)作慣性傳感器使用,努力減少延遲時間。高通互聯(lián)體驗副總裁杰伊· 懷特(Jay Wright)表示,在系統(tǒng)開發(fā)過程中,其距離“有效零延遲”的目標(biāo)越來越近。換言之,就是所謂的“感知即現(xiàn)實”。
寶馬 MINI增強現(xiàn)實眼鏡由Design Works USA開發(fā),這是寶馬旗下的子公司,總部設(shè)在美國加利福尼亞州南部。增強現(xiàn)實眼鏡由兩個聚碳酸酯材質(zhì)的鏡片以及一塊720p顯示屏組成,鏡框最上方是印刷 電路板。兩個鏡片的中央是一臺前置攝像頭,而最上方的紅外攝像頭可用于準(zhǔn)確追蹤眼鏡活動方向。鼻梁架可以進(jìn)行調(diào)節(jié),以便與醫(yī)學(xué)鏡片一起使用。
戴維斯表示,寶馬MINI增強現(xiàn)實眼鏡還不完美,每當(dāng)他快速活動頭部時,視覺效果都會存在一定的延遲。盡管如此,在增強現(xiàn)實技術(shù)改善駕乘體驗方面,這款產(chǎn)品令人印象深刻。懷特稱,目前它還只是原型產(chǎn)品,但有望在幾個月內(nèi)投入生產(chǎn)。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。