現(xiàn)如今,AI的智能、自主及高效程度又來到了一個發(fā)展高潮,成為人類完成日常工作、改善生活、提升幸福感的得力助手。但同時,由于是人類賦予了AI系統(tǒng)自主決策的能力,因此,許多人開始提出,人類需要對AI“負(fù)責(zé)”。
如何負(fù)責(zé)?其中包括三大核心,即問責(zé)制、責(zé)任制和透明度。這三點構(gòu)成了AI的A.R.T原則。
然而,當(dāng)前的大部分算法雖然高效,卻缺乏透明度。為此,許多專家和機構(gòu)正在不斷研究,希望能夠提高對深度學(xué)習(xí)算法的透明度和可解釋型。比如,谷歌一直呼吁的就是“公平而負(fù)有責(zé)任”的AI研發(fā)。
對此,不久前普華永道(PwC)公布了一個“負(fù)責(zé)任的AI框架(Responsible AI framework)”,強調(diào)了專用AI提高結(jié)構(gòu)性能,提高AI透明度的重要性。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟大學(xué)團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。