無人車又卷入了一起車禍。不過這一次,它成了受害者。
當?shù)貢r間周五下午一點左右,山景城的一個十字路口,綠燈亮起 6 秒鐘后,一輛 Google 無人駕駛測試車雷克薩斯 RX450h 起步。沒等他穿過路口,右側一輛商務車無視紅燈開了過來,和雷克薩斯結結實實地撞在了一起。Google 無人車右側嚴重損毀。
幸運的是,無人車上的乘客和商務車司機都沒有受傷。目前消息來看,此次事故的主要責任方應該是商務車司機。
Google 官方表示將會在本月底公布事故詳細信息。回溯以往的消息,這次極有可能是 Google 無人車遭遇的最嚴重的一次車禍。
今年 2 月底,Google 的另一輛無人車在變道時誤判了后方大巴司機的駕駛行為,它本以為司機會減速等待它變道,實際情況卻正好相反。兩者發(fā)生輕微的刮蹭,無人車撞到了大巴的一側車身,前護欄、車輪和傳感器受損。
Google 多次通過官方渠道用數(shù)據(jù)和案例證明粗心大意的人類在開車這件事上有多么不靠譜。比如說,94% 的車禍是由于司機的不當操作引起的,路怒、無耐心、精力不集中等是司機的通病。無人車就沒有這種毛病,它擁有 360 度的視角去監(jiān)視路況,規(guī)避行人,不會路怒,不會失去耐心。綠燈亮起后數(shù)秒鐘起步可以部分說明這個問題。
關于無人車的守規(guī)矩我們前幾天乘坐福特無人車兜風的時候,已有體驗。改裝后的蒙迪歐在左轉時監(jiān)測到后方有行人通過馬路來了個急剎車:
它絕對是我見過的最禮貌的司機。見到行人,車子會早早地停下來,直到行人完全離開車道才開始啟動;在變道之前會打轉向燈,轉向燈幾秒后才會變道;加速減速平穩(wěn)流暢,也會在適合的情況下以限速速度前進。
然而當無人車遇到有情緒會分心的人類司機,情況就會變得復雜起來。這也是在今后很長一段時間內會存在的問題,無人車和人類司機并行在城市街頭,對交通規(guī)則的遵守,對駕駛行為和路人、非機動車的預判,兩者會存在巨大的差異。
即便現(xiàn)有的交通法規(guī)會對無人車和人類司機一視同仁,但兩者對于法規(guī)的解讀卻各有不同。在無人車一統(tǒng)天下之前,人類難以預測的行為帶給 Google、Uber、福特等無人駕駛探路者的挑戰(zhàn)可能比無人駕駛所涉及的機器視覺、傳感技術本身更有難度。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術通過融合多幀圖像的"圖結構"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術利用圖像間的不變幾何關系,結合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構聯(lián)合提出SparseLoRA技術,通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。