5月31日消息,據國外媒體報道,谷歌和英飛凌正在聯(lián)合開發(fā)一種足夠小的芯片,這種芯片可內置于手表或腕帶中用來探測手勢和識別人臉。
英飛凌表示,它已開發(fā)出一種雷達傳感器半導體,目前正與谷歌合作探討如何將這種半導體投入到汽車安全等方面的應用中。
“這種芯片可以監(jiān)測動作、識別人臉,而且尺寸很小,可應用于物聯(lián)網、腕表、健身腕帶或駕駛員輔助系統(tǒng)中,”英飛凌發(fā)言人貝恩•霍普斯(Bernd Hops)表示,“我們提供的是硬件,谷歌則在應用程序和用戶體驗界面上做出努力。”
谷歌正加強與汽車制造商的合作,數款車型已經整合了谷歌的Android車載信息娛樂系統(tǒng)。寶馬計劃為新一代7系汽車裝備谷歌這一車載系統(tǒng),該系統(tǒng)的信息娛樂功能是由手勢所控制。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質量,在多項測試中超越包括Sora在內的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質量樣本的訓練數據集和MM-AlignBench評測基準,通過創(chuàng)新的數據生成和質量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經網絡技術,通過學習40年歷史數據掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。