CNET科技行者 8月17日 北京消息:8月15日,高通宣布擴(kuò)展QualcommSpectra™模組項(xiàng)目(Qualcomm Spectra™ Module Program),將能實(shí)現(xiàn)更加優(yōu)化的生物識(shí)別功能和高分辨率深度傳感,旨在滿足一系列廣泛的移動(dòng)終端和頭戴式顯示器(HMD)所帶來的、日益增加的拍照和視頻需求。該模組項(xiàng)目基于高通Spectra嵌入式圖像信號(hào)處理器(ISP)系列背后的前沿技術(shù)而打造,完全由高通設(shè)計(jì),高通Spectra將通過即將推出的驍龍移動(dòng)平臺(tái)為未來圖形質(zhì)量和計(jì)算機(jī)視覺創(chuàng)新鋪平道路。
高通產(chǎn)品管理副總裁Tim Leland表示:“無論是用于計(jì)算攝影、視頻錄制,或是要求精確動(dòng)作跟蹤的計(jì)算機(jī)視覺應(yīng)用,高功效的攝像頭圖像信號(hào)處理無疑對(duì)下一代移動(dòng)用戶體驗(yàn)變得愈加重要。我們?cè)谝曈X質(zhì)量和計(jì)算機(jī)視覺方面的突破性進(jìn)展,結(jié)合我們面向驍龍的集成式高通Spectra ISP系列,旨在支持前沿的移動(dòng)應(yīng)用生態(tài)系統(tǒng),從而讓我們的客戶受益。”
全新的ISP和攝像頭模組結(jié)合起來,旨在支持利用了深度學(xué)習(xí)技術(shù)以及背景虛化效果的圖像體驗(yàn)所實(shí)現(xiàn)的出色圖像質(zhì)量和全新計(jì)算機(jī)視覺用例,并縮短智能手機(jī)和HMD的上市時(shí)間。下一代ISP采用面向計(jì)算機(jī)視覺、圖像質(zhì)量和功效提升而設(shè)計(jì)的全新攝像頭架構(gòu),支持未來的驍龍移動(dòng)平臺(tái)和驍龍?zhí)摂M現(xiàn)實(shí)(VR)平臺(tái)。攝像頭模組項(xiàng)目新增部分包含了三個(gè)攝像頭模組,包括虹膜認(rèn)證模組、被動(dòng)深度傳感模組和主動(dòng)深度傳感模組。
Qualcomm Spectra模組項(xiàng)目
去年發(fā)布的高通Spectra模組項(xiàng)目旨在幫助客戶加快支持出色圖像質(zhì)量和先進(jìn)攝像頭技術(shù)的終端上市時(shí)間。去年的產(chǎn)品中向客戶提供了優(yōu)化的雙攝像頭模組解決方案,便于制造商打造提升弱光拍攝、具備平滑變焦視頻錄制功能的智能手機(jī)攝像頭?,F(xiàn)在,攝像頭模組項(xiàng)目已經(jīng)擴(kuò)展,納入了全新的攝像頭模組,能夠利用主動(dòng)傳感支持出色的生物識(shí)別,并利用結(jié)構(gòu)光支持需要實(shí)時(shí)、多重景深圖生成與分割的各種計(jì)算機(jī)視覺應(yīng)用。
第二代Qualcomm Spectra ISP
第二代高通Spectra ISP是利用全新硬件和軟件架構(gòu)的下一代集成式ISP系列,專為未來驍龍平臺(tái)中計(jì)算機(jī)視覺、圖像質(zhì)量和功效提升而設(shè)計(jì)。它支持多幀降噪技術(shù),可實(shí)現(xiàn)卓越的拍攝質(zhì)量,同時(shí)也支持硬件加速動(dòng)態(tài)補(bǔ)償時(shí)間濾波器(MCTF)與內(nèi)聯(lián)電子圖像穩(wěn)定(EIS),可實(shí)現(xiàn)“像攝像機(jī)一般”的出色視頻質(zhì)量。
除了優(yōu)化的同步定位與地圖構(gòu)建(SLAM)算法以外,高通Spectra ISP的低功耗、高性能運(yùn)動(dòng)追蹤功能旨在面向需要SLAM的虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)應(yīng)用,支持全新的擴(kuò)展現(xiàn)實(shí)(XR)用例。
高通Spectra ISP系列和全新高通Spectra攝像頭模組預(yù)計(jì)將集成在下一款旗艦驍龍移動(dòng)平臺(tái)中。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。