科技行者 8月28日 北京消息(文/孫封蕾): 今天,在AICC2019人工智能計(jì)算大會(huì)上,百度與浪潮宣布在人工智能領(lǐng)域達(dá)成合作,雙方將共建百度飛槳(PaddlePaddle)與浪潮AIStation聯(lián)合方案。本次合作,將讓深度學(xué)習(xí)開發(fā)者可以更便捷、高效地在浪潮AI服務(wù)器上應(yīng)用飛槳的深度學(xué)習(xí)能力。在此基礎(chǔ)上,雙方將攜手創(chuàng)建一個(gè)開放全新的生態(tài),賦能產(chǎn)業(yè)開發(fā)者,推進(jìn)產(chǎn)業(yè)智能化進(jìn)程。
據(jù)悉,當(dāng)前,飛槳的PaddleHub、AutoDL Design、PARL三大工具模塊,及包括ERNIE持續(xù)學(xué)習(xí)語(yǔ)義理解框架在內(nèi)的160+個(gè)有優(yōu)勢(shì)性能的預(yù)訓(xùn)練模型,已經(jīng)整合在浪潮AIStation平臺(tái)上,開發(fā)者可同時(shí)享有敏捷高效的AI計(jì)算資源管理部署和專業(yè)AI框架優(yōu)化服務(wù)。
百度飛槳是國(guó)內(nèi)唯一功能完備的端到端開源深度學(xué)習(xí)平臺(tái),集深度學(xué)習(xí)訓(xùn)練和預(yù)測(cè)框架、模型庫(kù)、工具組件和服務(wù)平臺(tái)為一體,擁有兼顧靈活性和高性能的開發(fā)機(jī)制、工業(yè)級(jí)應(yīng)用效果的模型、超大規(guī)模并行深度學(xué)習(xí)能力、推理引擎一體化設(shè)計(jì)及系統(tǒng)化服務(wù)等優(yōu)勢(shì),致力于讓深度學(xué)習(xí)技術(shù)的創(chuàng)新與應(yīng)用更簡(jiǎn)單。
AIStation則是浪潮面向AI企業(yè)訓(xùn)練場(chǎng)景的人工智能PaaS平臺(tái),可實(shí)現(xiàn)容器化部署、可視化開發(fā)、集中化管理等,為用戶提供極致高性能的AI計(jì)算資源,實(shí)現(xiàn)高效的計(jì)算力支撐、精準(zhǔn)的資源管理和調(diào)度、敏捷的數(shù)據(jù)整合及加速、流程化的AI場(chǎng)景及業(yè)務(wù)整合,有效打通開發(fā)環(huán)境、計(jì)算資源與數(shù)據(jù)資源,提升開發(fā)效率。
自開源以來(lái),百度飛槳持續(xù)進(jìn)化升級(jí)。今年7月初發(fā)布的飛槳+華為麒麟NPU合作,打通了深度學(xué)習(xí)框架與芯片,通過“硬軟結(jié)合”的方式,為中國(guó)產(chǎn)業(yè)開發(fā)者最大限度釋放深度學(xué)習(xí)能力。
今天發(fā)布的與浪潮AIStation的聯(lián)合方案,將幫助完善百度飛槳在服務(wù)器側(cè)的戰(zhàn)略布局,進(jìn)一步釋放深度學(xué)習(xí)在AI 服務(wù)器端的能力。至此,飛槳在端側(cè)、云側(cè)實(shí)現(xiàn)了全方位、立體式的覆蓋。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。