CNET科技資訊網(wǎng) 11月18日 北京消息:11月16日,vivo新品發(fā)布會(huì),vivo X9/X9 Plus和全新旗艦Xplay6亮相,“全驍龍”支持,而拍照性能成為了這幾款新機(jī)的共同亮點(diǎn)。
vivo Xplay6(來(lái)自vivo官網(wǎng))
Xplay6支持了專(zhuān)業(yè)級(jí)的拍照效果,配備前置1600萬(wàn)/后置(1200萬(wàn)+500萬(wàn))攝像頭,并搭配了f/1.7大光圈與1.4um超大像素尺寸,支持4軸光學(xué)防抖。其中,1200萬(wàn)全像素雙核對(duì)焦攝像頭采用了Qualcomm 2PD(Dual Photodiode)技術(shù)。與傳統(tǒng)技術(shù)相比,2PD技術(shù)可帶來(lái)相位信息的大幅度提升,從而可以成倍提高對(duì)焦速度,以Xplay6為例,對(duì)焦速度可快至0.03秒。更值得一提的是,這種技術(shù)在弱光條件下也能保證很好的對(duì)焦效果。此外,驍龍820支持的quad-CFA技術(shù),還可以讓用戶(hù)在拍攝高分辨率圖像的同時(shí),獲得預(yù)覽下的大像素傳感器畫(huà)質(zhì)效果。
另外,驍龍820中的Qualcomm Hexagon 680 DSP集成了HVX(Hexagon向量擴(kuò)展)特性。這一全新的高級(jí)成像硬件功能在與Qualcomm Spectra ISP配合使用時(shí),可為Xplay6帶來(lái)先進(jìn)的成像及計(jì)算機(jī)視覺(jué)。例如,在弱光情況下,驍龍 820 能通過(guò)ISP和DSP自適應(yīng)地增亮視頻和照片中較暗的區(qū)域,使其不會(huì)顯得過(guò)暗。借助于Hexagon 680及HVX,驍龍 820在執(zhí)行這些操作時(shí),速度是前幾代驍龍?zhí)幚砥鞯?倍,且能耗僅為10%。
在其他配置上,vivo Xplay6搭載四曲面5.46英寸2K屏,4080mAh大電池,配備6G LPDDR4 + 128G UFS2.0。此外在連接性方面,驍龍820所集成的X12 LTE調(diào)制解調(diào)器的卓越性能,為Xplay6所支持的電梯模式、地庫(kù)模式、高鐵模式保駕護(hù)航,在確保低功耗的情況下讓用戶(hù)體驗(yàn)“信號(hào)更穩(wěn)定,通訊更流暢”。
vivo X9(來(lái)自vivo官方論壇)
與此同時(shí),vivo還發(fā)布了vivo X9/X9 Plus,分別采用了驍龍625/653處理器。驍龍625是驍龍600系列首款采用14納米FinFET制程工藝的處理器,功耗較上一代產(chǎn)品降低35%,CPU與GPU性能則分別提升42%與45%,能為用戶(hù)帶來(lái)高性能、低功耗的體驗(yàn)。驍龍653則是驍龍652的延伸,不僅具備更高的CPU和GPU性能,實(shí)現(xiàn)了10%的性能提升,還將可尋址內(nèi)存(RAM)從4GB翻倍增至8GB,支持雙攝,顯著改善用戶(hù)體驗(yàn)。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。