科技行者 3月28日 北京消息:今日,在華為開發(fā)者大會2020(Cloud)第二天,華為全面分享在計(jì)算視覺領(lǐng)域的基礎(chǔ)研究成果,全球開發(fā)者可通過公開發(fā)表的論文及開源代碼,進(jìn)一步開展AI的研究、開發(fā)和部署。同時(shí),華為發(fā)布計(jì)算視覺研究計(jì)劃(以下簡稱視覺計(jì)劃),并邀請全球AI專家參與研究。基于華為昇騰AI處理器的Atlas人工智能計(jì)算平臺將為該計(jì)劃提供強(qiáng)大算力支撐,研究成果將在華為全場景AI計(jì)算框架MindSpore實(shí)現(xiàn)并開源給業(yè)界,讓全球AI開發(fā)者以此為基礎(chǔ)持續(xù)創(chuàng)新、不斷突破邊界、共同打造無所不及的智能。
開放華為計(jì)算視覺基礎(chǔ)研究成果
投資基礎(chǔ)研究是華為AI戰(zhàn)略的重要部分,華為致力于在計(jì)算視覺、自然語言處理、決策推理等領(lǐng)域構(gòu)筑數(shù)據(jù)高效、能耗高效、安全可信、自動自治的機(jī)器學(xué)習(xí)基礎(chǔ)能力。
面向全球開發(fā)者,華為諾亞方舟實(shí)驗(yàn)室計(jì)算視覺首席科學(xué)家、IEEE Fellow田奇教授分享了計(jì)算視覺領(lǐng)域的最新研究進(jìn)展:“華為在計(jì)算視覺領(lǐng)域圍繞數(shù)據(jù)、知識和模型三大方向,大力投入基礎(chǔ)研究,過去兩年已在AI頂會CVPR、ICCV、NeurIPS、ICLR等發(fā)表80余篇論文,并取得多項(xiàng)業(yè)界領(lǐng)先的成果,這些研究成果已通過學(xué)術(shù)論文和算法代碼開源等形式公開給業(yè)界,我們歡迎全球AI開發(fā)者基于華為已有的研究成果,進(jìn)一步開展AI的研究、開發(fā)和部署”。
發(fā)布華為計(jì)算視覺研究計(jì)劃、助力每一位AI開發(fā)者
華為計(jì)算視覺研究計(jì)劃
在當(dāng)前研究基礎(chǔ)上,田奇教授發(fā)布了華為計(jì)算視覺計(jì)劃,“華為將繼續(xù)加大投入計(jì)算視覺的基礎(chǔ)研究,不斷挑戰(zhàn)計(jì)算視覺領(lǐng)域三大問題,包括如何從海量數(shù)據(jù)中高效挖掘有用的信息、設(shè)計(jì)高效的萬物識別視覺模型,以及表達(dá)并存儲知識以邁向通用智能“。華為視覺計(jì)劃圍繞三大方向,共有六大子計(jì)劃,包括:
同時(shí),田奇教授表示,“我們歡迎全球AI研究者加入華為視覺計(jì)劃,共同創(chuàng)新、探索未來。華為Atlas人工智能計(jì)算平臺的超強(qiáng)算力將全面加速視覺計(jì)劃開展,研究成果將在華為全場景AI計(jì)算框架MindSpore上充分實(shí)現(xiàn)并開源給業(yè)界,助力每一位AI開發(fā)者“。
華為在2018年華為全聯(lián)接大會上首次發(fā)布AI戰(zhàn)略,重點(diǎn)投資AI基礎(chǔ)研究,并協(xié)同全球科研機(jī)構(gòu)和開發(fā)者共同構(gòu)建AI生態(tài)。本次開發(fā)者大會上,華為系統(tǒng)展示計(jì)算視覺領(lǐng)域基礎(chǔ)研究成果并發(fā)布視覺計(jì)劃,以AI基礎(chǔ)研究和開放創(chuàng)新全面支持全球開發(fā)者探索未來,不斷突破邊界,共同打造無所不及的智能。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。