溫馨提示:
專業(yè)聽眾線下參會觀展
注冊截止時間為7月6日24:00
。
現(xiàn)場不開放臨時注冊,只可通過線上云平臺觀看直播。
以下為云平臺注冊報名指南以及注意事項,方便大家順利報名觀展。
1
注冊報名平臺:云平臺2.0
。
。
2
選擇開通參會資質(zhì)
種不同的參會身份及資質(zhì)供公眾選擇。
線上云觀眾
可通過云平臺全程觀看線上直播,參與線上互動。
,均可通過云平臺2.0注冊成為線上云觀眾。
線下專業(yè)聽眾
可通過云平臺全程觀看線上直播,參與線上互動,同時可免費預約線下論壇,線下免費觀展。
線下免費觀展。
3
線上云觀眾注冊指南
。
成為線下專業(yè)聽眾或普通觀眾。
4
線下專業(yè)聽眾注冊指南
。
,進入專業(yè)觀眾資質(zhì)后臺審核階段。審核通過,會獲得短信及郵件通知。
中查看權益及參會憑證。
線下論壇注冊預約截止時間為7月6日24:00)
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術利用圖像間的不變幾何關系,結(jié)合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術,通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。