CNET科技資訊網(wǎng) 1月4日 北京消息:高通今日在CES 2017(國際消費電子展)上與ODG(Osterhout Design Group)共同宣布,其R-8和R-9將成為首批發(fā)布的搭載驍龍835處理器的終端。驍龍835采用10納米FinFET制程技術(shù),支持外形小巧的下一代頂級消費類終端。
ODG是移動頭戴式計算與增強現(xiàn)實技術(shù)和產(chǎn)品的開發(fā)商與制造商,R-8是ODG推出的首款消費級移動AR/VR智能眼鏡,面向“嘗鮮型”消費者;R-9則面向各種類型的寬視場(FOV)體驗,包括從輕型企業(yè)級到準專業(yè)級的媒體消費,并可作為面向高級移動AR/VR和智能眼鏡應(yīng)用的開發(fā)平臺。
高通產(chǎn)品管理高級副總裁Raj Talluri表示:“驍龍835處理器從設(shè)計之初便旨在支持除智能手機之外的、全新的創(chuàng)新產(chǎn)品與體驗,在重度計算但外形小巧的終端上實現(xiàn)散熱十分困難,所以更高的能效表現(xiàn)是其必要條件,驍龍835處理器基于10納米工藝節(jié)點,并融合了高通系統(tǒng)級芯片(SoC)設(shè)計專長,幫助ODG實現(xiàn)了他們的設(shè)計目標,開發(fā)出了更輕薄、更小巧和更精致的智能眼鏡。”
驍龍835結(jié)合了Qualcomm® Kryo™ 280 CPU與高通更多的低功耗、高性能處理技術(shù),能面向各種用戶體驗支持長時間續(xù)航,例如AR和VR、聆聽高保真音頻、觀看高清視頻、玩游戲和使用相機/攝像機。驍龍835是一顆支持Ultra HD Premium的移動處理器,支持全4K/60fps、10位HDR10/HEVC視頻解碼,以及直接向10位廣色域4K顯示輸出的HDR圖形渲染和顯示。
ODG創(chuàng)始人和首席執(zhí)行官Ralph Osterhout表示:“隨著消費者對移動終端的期望越來越多,我們看到面向移動計算新時代的轉(zhuǎn)變正在發(fā)生。這不僅僅是終端的轉(zhuǎn)變,而是出現(xiàn)了一種全新的計算工具,將改變我們彼此互動、發(fā)現(xiàn)信息并與周圍世界中的人和對象建立聯(lián)系的方式。驍龍835處理器將加速實現(xiàn)我們長久以來為之努力奮斗的目標——為消費者帶來獨立、輕巧和強大的頭戴式計算終端,提供令人驚嘆的視覺體驗。我們很榮幸能與高通合作,并率先宣布在我們的終端中集成了這項最新的技術(shù)。”
R-8將移動虛擬計算的強大功能帶給了消費者。通過40˚以上的FOV和高清分辨率,追求創(chuàng)新的消費者可在智能眼鏡上享受熟悉的電影、體育賽事、游戲、導(dǎo)航和教育體驗,而這款智能眼鏡將比ODG產(chǎn)品組合中的任何其他終端都更輕薄、更小巧和更精致。無論你身在何處或如何移動,R-8都能為你提供視野中的私人屏幕,并通過增加AR、VR和混合現(xiàn)實疊層的維度,實現(xiàn)更豐富的計算體驗。
R-9基于ODG屢獲贊譽的50° FOV和1080p Project Horizon平臺打造,曾獲得“國際消費電子展創(chuàng)新獎”三個類別的獎項。它旨在面向各種類型的寬視場(FOV)體驗,包括從輕型企業(yè)級到準專業(yè)級的移動媒體消費,同時也是一款面向高級移動AR/VR和智能眼鏡應(yīng)用的開發(fā)平臺。
這兩款終端均受益于高通驍龍?zhí)摂M現(xiàn)實軟件開發(fā)工具包(VR SDK),例如硬件加速和基于視覺慣性測距的六自由度(6DOF)運動追蹤。
值得一提的是,驍龍835現(xiàn)已投入生產(chǎn),預(yù)計將于2017年上半年搭載于商用終端中出貨。
關(guān)于ODG
ODG于1999年作為技術(shù)孵化器創(chuàng)建,總部位于舊金山,目前是移動頭戴式計算與增強、虛擬和混合現(xiàn)實技術(shù)和產(chǎn)品的開發(fā)商與制造商。ODG由私人控股。2016年12月,它宣布獲得包括二十一世紀福克斯(21st Century Fox)、深圳歐菲光科技股份有限公司(Shenzhen O-film Tech Co., Ltd.)和萬方城鎮(zhèn)投資發(fā)展股份有限公司(Vanfund Urban Investment & Development Co. Ltd.)投入的5800萬美元A輪融資,這是可穿戴設(shè)備、增強現(xiàn)實和虛擬現(xiàn)實領(lǐng)域有史以來規(guī)模最大的A輪融資。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。