科技行者 2月28日 北京消息:26日,紫光展銳正式發(fā)布面向未來(lái)的一站式AIoT開(kāi)發(fā)平臺(tái),平臺(tái)以人工智能和連接能力為基礎(chǔ),面向廣闊的物聯(lián)網(wǎng)應(yīng)用與生態(tài),滿足不斷增長(zhǎng)的算力需求和不同的場(chǎng)景開(kāi)發(fā)需求。
作為紫光展銳新一代AIoT開(kāi)發(fā)平臺(tái),平臺(tái)綜合了先進(jìn)的開(kāi)放性架構(gòu)、高性能AI邊緣計(jì)算能力、豐富的開(kāi)發(fā)組件,這些將切實(shí)解決AIoT應(yīng)用場(chǎng)景的碎片化、多樣化和數(shù)據(jù)安全三大挑戰(zhàn),有效降低開(kāi)發(fā)者開(kāi)發(fā)成本,縮短產(chǎn)品開(kāi)發(fā)周期,為AIoT開(kāi)發(fā)提供全行業(yè)一站式解決方案。
AI加持,超強(qiáng)大腦
此次發(fā)布的AIoT開(kāi)發(fā)平臺(tái)包含了曾一度霸榜蘇黎世聯(lián)邦理工學(xué)院AIbenchmark的高性能AI邊緣計(jì)算平臺(tái)——虎賁T710,其強(qiáng)勁的AI性能,在搭配平臺(tái)最新推出的第二代人工智能引擎——AIactvier2.0后,將為整個(gè)平臺(tái)釋放更為強(qiáng)勁的算力,為廣闊的AIoT應(yīng)用注入強(qiáng)大AI動(dòng)能。此外,開(kāi)發(fā)平臺(tái)還集成了物體識(shí)別,人臉識(shí)別等神經(jīng)網(wǎng)絡(luò)模型,將簡(jiǎn)化開(kāi)發(fā)難度,實(shí)現(xiàn)快速應(yīng)用開(kāi)發(fā)。平臺(tái)可廣泛應(yīng)用于智能零售、智能穿戴、智能家居、智慧工業(yè)、高擴(kuò)展性邊緣計(jì)算、智能教育、智能醫(yī)療、智能交通、智能電力等行業(yè)。
靈活多樣,組件豐富
從雙核、四核、八核的多硬件平臺(tái)選擇,到基于oFono通信框架的2G/3G/4G語(yǔ)音和數(shù)據(jù)通信功能,再到2D/3D圖形、計(jì)算機(jī)視覺(jué)處理的音視頻能力,平臺(tái)為開(kāi)發(fā)者提供了全面多樣的軟硬件組合。同時(shí),平臺(tái)還提供了面向AIoT豐富的中間組件和接口,極大方便了開(kāi)發(fā)者在AIoT的終端開(kāi)發(fā)。平臺(tái)支持的Ubuntu、Yocto、Debian、AGL、OpenWRT等多個(gè)Linux發(fā)行版本可使用C/C++,Python,QT等開(kāi)發(fā)工具,針對(duì)不同設(shè)備實(shí)現(xiàn)一次開(kāi)發(fā)多個(gè)平臺(tái)部署。
安全可信
新一代AIoT開(kāi)發(fā)平臺(tái)基于紫光展銳創(chuàng)新的存儲(chǔ)、外設(shè)隔離模塊、硬件加密引擎、真隨機(jī)數(shù)發(fā)生器以及其它安全模塊,開(kāi)發(fā)者可以構(gòu)建可信執(zhí)行環(huán)境下的應(yīng)用,而平臺(tái)為應(yīng)用及用戶 數(shù) 據(jù)提供的硬件層面安全保護(hù),將滿足身份認(rèn)證、金融支付、信息存儲(chǔ)等對(duì)安全有苛刻要求的應(yīng)用場(chǎng)景。
成熟的開(kāi)發(fā)生態(tài)
為了更好滿足開(kāi)發(fā)者對(duì)不同應(yīng)用場(chǎng)景的需求,開(kāi)發(fā)平臺(tái)提供了定制裁剪能力。同時(shí),平臺(tái)還提供了符合96board規(guī)范的開(kāi)發(fā)板,用戶可利用96board的開(kāi)發(fā)生態(tài)環(huán)境快速完成原型開(kāi)發(fā),為滿足量產(chǎn)品對(duì)性能和成本上的要求,在方案穩(wěn)定后開(kāi)發(fā)者仍可以對(duì)硬件方案進(jìn)行定制。最后,開(kāi)發(fā)平臺(tái)正在構(gòu)建的開(kāi)發(fā)者社區(qū),還將面向所有AIoT開(kāi)發(fā)者提供資源工具、學(xué)習(xí)交流、應(yīng)用實(shí)踐、技術(shù)支持等一站式服務(wù)。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過(guò)交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開(kāi)辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過(guò)讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問(wèn)題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問(wèn)題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過(guò)創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開(kāi)發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過(guò)學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來(lái)了效率和精度的雙重突破。