科技行者 3月28日 北京消息:今日,在華為開發(fā)者大會2020(Cloud)第二天,華為宣布全場景AI計算框架MindSpore在碼云正式開源,企業(yè)級AI應(yīng)用開發(fā)者套件ModelArts Pro在華為云上線,同時展示了各行業(yè)合作伙伴基于華為人工智能計算平臺Atlas的云邊端全場景開發(fā)實踐。至此,華為在2018年全聯(lián)接大會上發(fā)布的全棧全場景AI解決方案,已面向開發(fā)者全面落地。
全場景AI計算框架MindSpore正式開源
華為MindSpore首席科學(xué)家、IEEE Fellow陳雷教授宣布華為全場景AI計算框架MindSpore在碼云正式開源,并將致力于構(gòu)筑面向全球的開源社區(qū),持續(xù)推動AI軟硬件應(yīng)用開源生態(tài)繁榮發(fā)展。
華為全場景AI計算框架MindSpore正式開源
MindSpore著重提升易用性并降低AI開發(fā)者的開發(fā)門檻,陳雷教授表示,“MindSpore原生適應(yīng)每個場景包括端、邊緣和云,并能夠在按需協(xié)同的基礎(chǔ)上,通過實現(xiàn)AI算法即代碼,使開發(fā)態(tài)變得更加友好,顯著減少模型開發(fā)時間,降低模型開發(fā)門檻。通過MindSpore自身的技術(shù)創(chuàng)新及MindSpore與華為昇騰AI處理器的協(xié)同優(yōu)化,實現(xiàn)了運行態(tài)的高效,大大提高了計算性能;MindSpore也支持GPU、CPU等其它處理器”。
發(fā)布業(yè)界首款企業(yè)級AI應(yīng)用開發(fā)專業(yè)套件ModelArts Pro
針對行業(yè)AI應(yīng)用開發(fā)者,華為云通用AI服務(wù)總經(jīng)理袁晶發(fā)布了業(yè)界首款企業(yè)級AI應(yīng)用開發(fā)專業(yè)套件ModelArts Pro。華為云ModelArts Pro定位為企業(yè)AI生產(chǎn)力工具,提供了一種全新的行業(yè)AI落地方式,將算法專家的積累和行業(yè)專家的知識沉淀在相應(yīng)的套件和行業(yè)工作流(workflow)中,真正實現(xiàn)賦能行業(yè)AI應(yīng)用開發(fā)者,全面提升行業(yè)AI開發(fā)效率和落地效果。ModelArts Pro以”授人以漁”的方式助力企業(yè)構(gòu)建AI能力,賦能不同行業(yè)的應(yīng)用開發(fā)者,讓AI變得觸手可及。
全面展示合作伙伴基于華為Atlas人工智能計算平臺的全場景開發(fā)實踐
華為Atlas數(shù)據(jù)中心業(yè)務(wù)總經(jīng)理張迪煊面向全球AI開發(fā)者,分享了各行業(yè)合作伙伴基于華為Atlas人工智能計算平臺的端邊云全場景開發(fā)實踐,并深度解析了打造高密云側(cè)AI推理方案的性能優(yōu)化過程、云邊協(xié)同支持高效邊緣推理以及極致低功耗端側(cè)推理的開發(fā)經(jīng)驗。 華為已與數(shù)十家伙伴合作,推動基于華為昇騰AI處理器的Atlas系列模塊、板卡、小站、服務(wù)器在智慧交通、智慧電力、智慧金融、智慧城市、智能制造等數(shù)十個行業(yè)落地。同時為了進(jìn)一步豐富華為AI生態(tài)、支撐開發(fā)者自定義算子,張迪煊在大會現(xiàn)場啟動了高效算子開發(fā)工具TBE的正式公測,并計劃激勵100家以上貢獻(xiàn)算子的高校和合作伙伴、充分釋放昇騰AI處理器的算力潛能。南開大學(xué)李濤教授現(xiàn)場演示了基于Atlas 200 DK的視網(wǎng)膜篩查病變檢測的AI應(yīng)用。依瞳科技李勁博士分享了基于華為Atlas的開發(fā)實踐,并推出了業(yè)內(nèi)首個支持華為昇騰910處理器的人工智能開源開放異構(gòu)平臺。
在2018年華為全聯(lián)接大會上,華為首次發(fā)布了全棧全場景AI解決方案,包括芯片、芯片使能、訓(xùn)練和推理框架和應(yīng)用使能全堆棧方案,可在公有云、私有云、各種邊緣計算、物聯(lián)網(wǎng)行業(yè)終端以及消費類終端等全場景部署。本次開發(fā)者大會上,華為系統(tǒng)展示了該解決方案的最新進(jìn)展,尤其是面向開發(fā)者的具體落地成果,全面支持全球開發(fā)者更好地開發(fā)AI應(yīng)用,讓AI真正解決各行各業(yè)的實際問題,為企業(yè)和社會帶來價值,也讓全球AI產(chǎn)業(yè)和生態(tài)更加繁榮。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。