各有關(guān)單位:
世界智能大會秉承“高端化、國際化、專業(yè)化、市場化”辦會理念,是由國家發(fā)展和改革委員會、科學(xué)技術(shù)部、工業(yè)和信息化部、國家廣播電視總局、國家互聯(lián)網(wǎng)信息辦公室、中國科學(xué)院、中國工程院、中央廣播電視總臺、中國科學(xué)技術(shù)協(xié)會與天津市政府共同主辦的國際盛會。迄今已成功舉辦六屆,是對外展示中國新作為、引領(lǐng)發(fā)展新潮流的全新窗口和重要平臺,是全球范圍開放創(chuàng)新、聚合資源、深化合作的高端平臺。
為加強(qiáng)數(shù)字經(jīng)濟(jì)與實體經(jīng)濟(jì)深度融合,推進(jìn)數(shù)字產(chǎn)業(yè)化和產(chǎn)業(yè)數(shù)字化,激發(fā)原始創(chuàng)新力,充分發(fā)揮世界智能大會的集聚效應(yīng),全面展現(xiàn)智能科技領(lǐng)域的“前沿新成果、硬核新技術(shù)、產(chǎn)業(yè)新賽道、未來新場景”,現(xiàn)面向全球國際機(jī)構(gòu)組織、企業(yè)、政府部門、社會團(tuán)體、科研院所、高校、技術(shù)社群、創(chuàng)新團(tuán)隊等主體征集智能科技成果,在第七屆世界智能大會進(jìn)行集中發(fā)布,現(xiàn)將有關(guān)要求通知如下:
一、征集內(nèi)容
智能科技、數(shù)字經(jīng)濟(jì)領(lǐng)域的政策、報告、標(biāo)準(zhǔn)、規(guī)范、指數(shù)、榜單、新技術(shù)、新產(chǎn)品、應(yīng)用示范、典型案例等創(chuàng)新成果。
二、征集要求
(一)申報方式
請于2023年3月24日前,填寫申請表和擬發(fā)布成果word版圖文材料以郵件形式發(fā)送到世界智能大會官方工作郵箱gg@wicongress.org。郵件標(biāo)題請注明:發(fā)布內(nèi)容名稱+單位名稱+聯(lián)系人+電話。每個申報單位可同時申報多個類別的科技成果,但同一類別至多申報一項。
(二)需提交資料
1.政策、報告、標(biāo)準(zhǔn)、規(guī)范、指數(shù)、榜單類成果申報單位應(yīng)提供單位簡介和發(fā)布內(nèi)容相關(guān)說明性材料。
2.新技術(shù)、新產(chǎn)品、成果案例類申報單位應(yīng)提供以下材料(包含但不僅限于):
(1)單位簡介、成果介紹(包括基本情況、成果特點、重要性等);
(2)自主知識產(chǎn)權(quán)相關(guān)證明材料;
(3)成果擁有者介紹及相關(guān)證明材料;
(4)該成果取得或預(yù)期取得經(jīng)濟(jì)效益和社會效益的相關(guān)證明材料。
(三)其他說明
主辦方提供發(fā)布場地及基本發(fā)布條件,相關(guān)內(nèi)容制作及其他發(fā)布費用由發(fā)布單位自行承擔(dān)。
三、聯(lián)系方式
世界智能大會組委會秘書處聯(lián)系人:高老師
咨詢電話:13622002081
電子郵箱:gg@wicongress.org
聯(lián)系地址:天津市河西區(qū)友誼路35號城市大廈A座
了解更多詳情,敬請關(guān)注大會官方微信公眾號
附件:第七屆世界智能大會前沿科技發(fā)布成果申請表
下載地址:https://www.wicongress.org.cn/ci/uploads/202302151723.doc
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實驗發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強(qiáng)于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。