鯤鵬昇騰開(kāi)發(fā)者峰會(huì)2023將于5月6-7日在東莞松山湖舉行,旨在搭建伙伴、開(kāi)發(fā)者學(xué)習(xí)、交流的平臺(tái)幫助開(kāi)發(fā)者深入了解鯤鵬、昇騰全棧技術(shù),加速行業(yè)數(shù)智化的技術(shù)、產(chǎn)品和解決方案創(chuàng)新。
在鯤鵬、昇騰產(chǎn)業(yè)中,開(kāi)發(fā)者和合作伙伴是至關(guān)重要的一環(huán)。經(jīng)過(guò)三年多的發(fā)展,鯤鵬和昇騰開(kāi)發(fā)者已經(jīng)超過(guò)350+萬(wàn),合作伙伴超過(guò)5600家,解決方案認(rèn)證超過(guò)15500個(gè)。華為堅(jiān)持“硬件開(kāi)放、軟件開(kāi)源、使能伙伴、發(fā)展人才”生態(tài)戰(zhàn)略,為開(kāi)發(fā)者提供豐富的技術(shù)資源和完備的技術(shù)支持,幫助開(kāi)發(fā)者更好地應(yīng)用鯤鵬和昇騰技術(shù),助力伙伴獲得更廣闊的市場(chǎng)和更多的商業(yè)機(jī)會(huì),共同推動(dòng)產(chǎn)業(yè)的發(fā)展。
本次開(kāi)發(fā)者峰會(huì)已邀請(qǐng)行業(yè)技術(shù)領(lǐng)袖、產(chǎn)業(yè)技術(shù)大咖、學(xué)術(shù)領(lǐng)軍人物及廣大伙伴和高校優(yōu)秀開(kāi)發(fā)者齊聚一堂,分享產(chǎn)業(yè)趨勢(shì)、前沿技術(shù)、行業(yè)創(chuàng)新實(shí)踐,共同探討鯤鵬與昇騰的技術(shù)發(fā)展、應(yīng)用場(chǎng)景和未來(lái)發(fā)展方向。屆時(shí),多位華為高管和技術(shù)專家將進(jìn)行主題演講和技術(shù)分享,重磅發(fā)布基于鯤鵬的一體化解決方案、基于openGauss 5.0的發(fā)行版、昇思MindSpore 2.0,啟動(dòng)鯤鵬應(yīng)用創(chuàng)新大賽2023、昇騰AI創(chuàng)新大賽2023,升級(jí)鯤鵬、昇騰開(kāi)發(fā)者工具與套件、發(fā)布軟件新版本、全新上線鯤鵬社區(qū)3.0等,同時(shí)還將有最新技術(shù)案例和解決方案展示。
此外,峰會(huì)將涵蓋多個(gè)技術(shù)主題,包括操作系統(tǒng)、數(shù)據(jù)庫(kù)、AI框架、機(jī)密計(jì)算、大數(shù)據(jù)、分布式存儲(chǔ)、虛擬化、AI大模型、科學(xué)智能等領(lǐng)域。華為及伙伴將提供豐富的技術(shù)演示和案例分析,讓開(kāi)發(fā)者深入了解鯤鵬與昇騰技術(shù)的應(yīng)用和實(shí)踐。
在此,誠(chéng)摯地邀請(qǐng)廣大開(kāi)發(fā)者、技術(shù)愛(ài)好者和業(yè)界人士蒞臨現(xiàn)場(chǎng)及線上,共同見(jiàn)證鯤鵬昇騰產(chǎn)業(yè)的技術(shù)創(chuàng)新和產(chǎn)業(yè)的飛速發(fā)展。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。