4月17日,漢諾威——為持續(xù)擴(kuò)展物聯(lián)網(wǎng)生態(tài)系統(tǒng)和用例,高通技術(shù)公司宣布推出全新物聯(lián)網(wǎng)解決方案以支持下一代物聯(lián)網(wǎng)終端發(fā)展:高通®QCS8550、高通®QCM8550、高通®QCS4490以及高通®QCM4490處理器。
全新升級的解決方案提供了豐富功能、先進(jìn)特性和廣泛用途,旨在滿足行業(yè)和商業(yè)物聯(lián)網(wǎng)應(yīng)用的嚴(yán)苛需求,其所賦能的全新用例支持在視頻協(xié)作、云游戲、零售等關(guān)鍵領(lǐng)域進(jìn)一步擴(kuò)展物聯(lián)網(wǎng)生態(tài)系統(tǒng)。
高通技術(shù)公司業(yè)務(wù)拓展副總裁兼樓宇、企業(yè)和工業(yè)自動化業(yè)務(wù)負(fù)責(zé)人Dev Singh表示:“高通技術(shù)公司具備推動物聯(lián)網(wǎng)生態(tài)發(fā)展的獨(dú)特優(yōu)勢,我們?nèi)碌慕鉀Q方案匯集業(yè)界領(lǐng)先的技術(shù),包括邊緣AI處理、創(chuàng)新能效、超清晰視頻和5G連接等,驅(qū)動下一代具有韌性的高性能物聯(lián)網(wǎng)應(yīng)用。”
高通QCS8550和高通QCM8550處理器面向性能密集型物聯(lián)網(wǎng)應(yīng)用而設(shè)計
全新高通QCS8550和高通QCM8550處理器整合強(qiáng)大的算力和邊緣側(cè)AI處理、Wi-Fi 7連接以及栩栩如生的圖形和視頻功能,為高性能需求的物聯(lián)網(wǎng)應(yīng)用提供支持并助力其快速部署,比如自主移動機(jī)器人和工業(yè)無人機(jī)。
上述頂級產(chǎn)品采用了高通技術(shù)公司優(yōu)化的AI架構(gòu),為豐富的商業(yè)模式和用例提供強(qiáng)大的處理能力。高通QCS8550和高通QCM8550還支持強(qiáng)勁的視頻和圖形處理,賦能沉浸式云游戲、視頻協(xié)作和視頻流媒體體驗(yàn)。
高通QCS4490和高通QCM4490處理器賦能新一代工業(yè)手持終端
高通QCS4490和高通QCM4490處理器為工業(yè)手持和計算終端提供頂級連接和下一代處理等關(guān)鍵先進(jìn)特性。
上述解決方案配備5G和Wi-Fi 6E連接,可實(shí)現(xiàn)數(shù)千兆比特傳輸速率、更廣泛的覆蓋范圍、低時延和強(qiáng)大高效的處理能力以應(yīng)對復(fù)雜的計算任務(wù)。高通QCS4490和QCM4490處理器計劃對Android版本的支持一直到未來的Android 18,這意味著這兩款產(chǎn)品可用于2030年之前的工業(yè)設(shè)計,通過提供更加靈活、具有更長產(chǎn)品壽命的處理器,最大程度節(jié)省終端開發(fā)時間和成本。
在滿足工業(yè)手持和計算終端的強(qiáng)大處理需求之外,上述中端解決方案還適用于需要低時延連接、更高可靠性和更優(yōu)開發(fā)時間的其它物聯(lián)網(wǎng)應(yīng)用,包括先進(jìn)零售和POS終端,以及控制和自動化應(yīng)用,比如安防面板。
憑借一整套連接和處理能力,高通QCS4490和高通QCM4490處理器以及高通QCS8550和高通QCM8550處理器將為廣泛行業(yè)用例創(chuàng)造巨大價值,包括在未來與全新Qualcomm Aware™平臺相配合。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗(yàn)證有效性。