借助司機助理系統(tǒng),無人駕駛汽車依賴雷達、激光和攝像頭看清道路,但所有信息還需要進行分析、領(lǐng)會。Nvidia在CES展上演示了其新款K1圖形處理器如何識別街面信號、車道線與其他交通工具的全過程。
Nvidia在其展臺進行了演示,安裝有K1芯片的測試臺記錄了一段由一個攝像頭拍攝到的路面行駛視頻。借助圖像識別資料庫,K1圖形芯片分析視頻,將速度限制信號標為紅色、其他交通工具標為藍色,車道線標為綠色。
芯片不停地處理著視頻,與現(xiàn)實世界并無兩樣。
Nvidia自動化主管丹尼·夏皮羅(Danny Shapiro)向CNET表示,早期的Tegra芯片無法達到演示中顯示的K1處理水平,新款KI處理器能耗卻與Tegra相似,僅為5-7瓦。
K1芯片是汽車的幕后“工作者”,分析大量傳感器傳來的實時數(shù)據(jù),創(chuàng)建即時環(huán)境3D模型。汽車廠商負責適當?shù)幕貞?yīng),通過剎車或方向盤進行控制或報警,對環(huán)境因素做出響應(yīng)。
Nvidia演示時,K1芯片分析速度限制信號,并在顯示屏上顯示當前速度。
夏皮羅指出,Nvidia能夠針對不同目標、街道標識和信號提供一個視覺識別模式基本資料庫,但汽車廠商還需要通過廣泛的現(xiàn)實世界測試細化識別模式。
奧迪、寶馬和Tesla汽車目前均采用Nvidia芯片。奧迪在CES展上宣布未來一款汽車將使用Nvidia K1芯片。夏皮羅表示,Nvidia將在今年3月份舉辦的日內(nèi)瓦車展上公布一個新客戶——一家亞洲主流汽車廠商。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。