隨著邊緣計算技術(shù)和工業(yè)互聯(lián)網(wǎng)應(yīng)用的快速發(fā)展,邊緣智能設(shè)備需要支持的功能不斷增加,并且,不同類型的功能依賴不同的硬件實現(xiàn)性能加速,比如:網(wǎng)絡(luò)傳輸需要獨立CPU的高級網(wǎng)卡支持或與新的安全協(xié)議快速對接,視頻監(jiān)控需要GPU資源來進行視頻分析加速。此外,隨著功能需求的不斷增加,原有邊緣智能設(shè)備方案也要升級不同的硬件,而對于在現(xiàn)場已經(jīng)部署完成的邊緣智能設(shè)備,單獨升級其中的某部分硬件模塊,從可行性和成本上均面臨很大挑戰(zhàn)。
上述問題的有效解決需要一種全新的方案。
近日,江行智能與香港理工大學計算學系王丹教授團隊共同研發(fā)的智能網(wǎng)卡項目TAPU-NIC: A Smart Network Interface Card based on a novel Transmission-Analytics Processing Unit for EdgeBox(為邊緣計算設(shè)計的基于傳輸分析集成處理的智能網(wǎng)卡)取得重要成果:全球首款可按需、靈活提供CPU和GPU資源的邊緣智能網(wǎng)卡問世。該項目由香港特別行政區(qū)政府創(chuàng)新科技署創(chuàng)新科技基金支持,相關(guān)成果申請專利一項,發(fā)表高水平論文三篇。該款智能網(wǎng)卡的原型系統(tǒng)將應(yīng)用于江行智能EdgeBox系列產(chǎn)品。
該項目的核心成果是一種新穎的傳輸分析處理單元(TAPU),并對不同模式使用的資源進行動態(tài)調(diào)節(jié)。TAPU提供的這種關(guān)鍵特性可以在不調(diào)整邊緣智能設(shè)備已有硬件的前提下,為資源優(yōu)化問題提供最佳的解決方案。依賴該特性,項目組進一步研發(fā)了智能網(wǎng)卡模塊TAPU-NIC。
圖1:TAPU-NIC模塊架構(gòu)
該模塊包含機器視覺類算法模型和系統(tǒng)網(wǎng)絡(luò)應(yīng)用,可根據(jù)邊緣側(cè)實際業(yè)務(wù)需求,自適應(yīng)動態(tài)調(diào)整GPU和CPU資源分配,優(yōu)化邊緣智能設(shè)備性能,靈活支持場景應(yīng)用。原型系統(tǒng)由江行智能EdgeBox,TAPU-NIC,以及商用攝像頭組成,并在香港理工大學進行現(xiàn)場測試。圖2展示了系統(tǒng)演示畫面,我們可以清晰的看到,系統(tǒng)可以按需設(shè)置視頻分析參數(shù)和網(wǎng)絡(luò)應(yīng)用參數(shù),動態(tài)提供CPU資源和GPU資源。實驗結(jié)果顯示,TAPU可以提高24%視頻應(yīng)用分析的準確度,以及減少22%的響應(yīng)時間。
圖2:系統(tǒng)演示畫面
江行智能聯(lián)合創(chuàng)始人兼CTO樊小毅博士表示:非常榮幸能與香港理工大學王丹教授團隊合作研發(fā)項目,很感謝香港創(chuàng)新科技署對項目的大力支持。作為一家高科技創(chuàng)業(yè)公司,我們一直非常重視產(chǎn)學研的緊密合作,江行智能希望通過開放性的合作推動行業(yè)前沿問題的研究,加速一系列研發(fā)成果的有效轉(zhuǎn)化,從而推動技術(shù)進步。目前,我們已經(jīng)同清華大學、香港理工大學、中國科學技術(shù)大學、華北電力大學等眾多高校建立了合作關(guān)系,相信這個名單會不斷擴大下去,更多AI+邊緣計算的科研成果會落地工業(yè)場景。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務(wù)上驗證有效性。