科技行者 2月28日 北京消息:26日,紫光展銳正式發(fā)布面向未來(lái)的一站式AIoT開(kāi)發(fā)平臺(tái),平臺(tái)以人工智能和連接能力為基礎(chǔ),面向廣闊的物聯(lián)網(wǎng)應(yīng)用與生態(tài),滿足不斷增長(zhǎng)的算力需求和不同的場(chǎng)景開(kāi)發(fā)需求。
作為紫光展銳新一代AIoT開(kāi)發(fā)平臺(tái),平臺(tái)綜合了先進(jìn)的開(kāi)放性架構(gòu)、高性能AI邊緣計(jì)算能力、豐富的開(kāi)發(fā)組件,這些將切實(shí)解決AIoT應(yīng)用場(chǎng)景的碎片化、多樣化和數(shù)據(jù)安全三大挑戰(zhàn),有效降低開(kāi)發(fā)者開(kāi)發(fā)成本,縮短產(chǎn)品開(kāi)發(fā)周期,為AIoT開(kāi)發(fā)提供全行業(yè)一站式解決方案。
AI加持,超強(qiáng)大腦
此次發(fā)布的AIoT開(kāi)發(fā)平臺(tái)包含了曾一度霸榜蘇黎世聯(lián)邦理工學(xué)院AIbenchmark的高性能AI邊緣計(jì)算平臺(tái)——虎賁T710,其強(qiáng)勁的AI性能,在搭配平臺(tái)最新推出的第二代人工智能引擎——AIactvier2.0后,將為整個(gè)平臺(tái)釋放更為強(qiáng)勁的算力,為廣闊的AIoT應(yīng)用注入強(qiáng)大AI動(dòng)能。此外,開(kāi)發(fā)平臺(tái)還集成了物體識(shí)別,人臉識(shí)別等神經(jīng)網(wǎng)絡(luò)模型,將簡(jiǎn)化開(kāi)發(fā)難度,實(shí)現(xiàn)快速應(yīng)用開(kāi)發(fā)。平臺(tái)可廣泛應(yīng)用于智能零售、智能穿戴、智能家居、智慧工業(yè)、高擴(kuò)展性邊緣計(jì)算、智能教育、智能醫(yī)療、智能交通、智能電力等行業(yè)。
靈活多樣,組件豐富
從雙核、四核、八核的多硬件平臺(tái)選擇,到基于oFono通信框架的2G/3G/4G語(yǔ)音和數(shù)據(jù)通信功能,再到2D/3D圖形、計(jì)算機(jī)視覺(jué)處理的音視頻能力,平臺(tái)為開(kāi)發(fā)者提供了全面多樣的軟硬件組合。同時(shí),平臺(tái)還提供了面向AIoT豐富的中間組件和接口,極大方便了開(kāi)發(fā)者在AIoT的終端開(kāi)發(fā)。平臺(tái)支持的Ubuntu、Yocto、Debian、AGL、OpenWRT等多個(gè)Linux發(fā)行版本可使用C/C++,Python,QT等開(kāi)發(fā)工具,針對(duì)不同設(shè)備實(shí)現(xiàn)一次開(kāi)發(fā)多個(gè)平臺(tái)部署。
安全可信
新一代AIoT開(kāi)發(fā)平臺(tái)基于紫光展銳創(chuàng)新的存儲(chǔ)、外設(shè)隔離模塊、硬件加密引擎、真隨機(jī)數(shù)發(fā)生器以及其它安全模塊,開(kāi)發(fā)者可以構(gòu)建可信執(zhí)行環(huán)境下的應(yīng)用,而平臺(tái)為應(yīng)用及用戶 數(shù) 據(jù)提供的硬件層面安全保護(hù),將滿足身份認(rèn)證、金融支付、信息存儲(chǔ)等對(duì)安全有苛刻要求的應(yīng)用場(chǎng)景。
成熟的開(kāi)發(fā)生態(tài)
為了更好滿足開(kāi)發(fā)者對(duì)不同應(yīng)用場(chǎng)景的需求,開(kāi)發(fā)平臺(tái)提供了定制裁剪能力。同時(shí),平臺(tái)還提供了符合96board規(guī)范的開(kāi)發(fā)板,用戶可利用96board的開(kāi)發(fā)生態(tài)環(huán)境快速完成原型開(kāi)發(fā),為滿足量產(chǎn)品對(duì)性能和成本上的要求,在方案穩(wěn)定后開(kāi)發(fā)者仍可以對(duì)硬件方案進(jìn)行定制。最后,開(kāi)發(fā)平臺(tái)正在構(gòu)建的開(kāi)發(fā)者社區(qū),還將面向所有AIoT開(kāi)發(fā)者提供資源工具、學(xué)習(xí)交流、應(yīng)用實(shí)踐、技術(shù)支持等一站式服務(wù)。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。