10月22日,夏威夷——高通技術(shù)公司今日宣布與谷歌達成旨在推動汽車行業(yè)數(shù)字化轉(zhuǎn)型的多年技術(shù)合作?;陂L期合作關(guān)系,雙方將利用驍龍數(shù)字底盤™、Android™汽車OS和谷歌云三者互為補充的各類技術(shù),打造借助生成式AI(GenAI)開發(fā)座艙解決方案的全新標準化參考平臺。谷歌AI將支持交付該框架,助力打造生成式AI增強的車內(nèi)體驗,例如直觀語音助手、沉浸式地圖體驗和實時更新以預(yù)測駕駛員需求等。這些體驗由驍龍®異構(gòu)邊緣AI SoC和高通®AI Hub賦能,簡化了視覺、音頻和語音應(yīng)用的AI模型在座艙內(nèi)的部署。
高通技術(shù)公司汽車、行業(yè)解決方案和云事業(yè)群總經(jīng)理Nakul Duggal表示:“高通技術(shù)公司與谷歌的技術(shù)合作可推動創(chuàng)新并助力開發(fā)前沿生成式AI增強解決方案,是為汽車制造商和一級供應(yīng)商釋放全新潛能的重要里程碑,同時賦能行業(yè)打造安全的先進數(shù)字化體驗。我們期待擴展高通技術(shù)公司與谷歌的合作,進一步推動汽車創(chuàng)新并引領(lǐng)產(chǎn)品上市,支持客戶利用我們的合作伙伴生態(tài)系統(tǒng)賦能無縫開發(fā)體驗。”
谷歌公司工程技術(shù)副總裁Patrick Brady表示:“汽車行業(yè)即將迎來生成式AI、自動駕駛解決方案和整個平臺生命周期內(nèi)軟件特性更新能力各方面進步帶來的重大轉(zhuǎn)型。我們期待通過此項戰(zhàn)略合作延續(xù)谷歌與高通技術(shù)公司的長期合作關(guān)系,繼續(xù)面向軟件定義汽車開發(fā)創(chuàng)新解決方案,展示聯(lián)合創(chuàng)新推動未來交通運輸業(yè)發(fā)展的強大力量。”
技術(shù)合作關(guān)鍵要素包括:
生成式AI增強的數(shù)字座艙開發(fā)框架:
• 可升級的車規(guī)級框架,旨在提供可實時增強的前沿數(shù)字座艙體驗。
• 預(yù)集成Android汽車操作系統(tǒng)(AAOS)軟件和服務(wù),利用谷歌生成式AI實現(xiàn)可定制且快速響應(yīng)的語音用戶界面和駕駛員狀態(tài)實時更新,通過驍龍SoC進行邊緣側(cè)優(yōu)化。
統(tǒng)一SDV車對云框架:
• 基于雙方技術(shù)基礎(chǔ)打造的支持車對云基礎(chǔ)設(shè)施的統(tǒng)一SDV開發(fā)框架。
• 該框架支持面向驍龍平臺優(yōu)化谷歌云托管汽車軟件開發(fā),提高開發(fā)者效率,同時縮短AAOS平臺和服務(wù)的產(chǎn)品上市時間。
• 在谷歌云上運行驍龍網(wǎng)聯(lián)服務(wù)平臺,面向車載和非車載連接支持由API驅(qū)動的網(wǎng)聯(lián)服務(wù)模型和可升級服務(wù)基礎(chǔ)設(shè)施。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。