CNET科技資訊網(wǎng) 7月26日 北京消息:滴滴出行今日正式對外公布了“安全駕駛”系統(tǒng),該系統(tǒng)被稱為“滴滴護(hù)航”,是滴滴平臺自主研發(fā)的安全產(chǎn)品。綜合分析手機(jī)傳感器、陀螺儀、GPS等信息,“滴滴護(hù)航”從疲勞駕駛、超速、急加速、急轉(zhuǎn)彎、急剎車、分心駕駛等六個維度檢測司機(jī)的駕駛行為,提高司機(jī)個人與平臺的安全保障水平。
目前,該系統(tǒng)已在滴滴代駕司機(jī)端上線,檢測維度正逐步開放,不久后將在??燔嚨葮I(yè)務(wù)司機(jī)端推廣,并計劃和司機(jī)的綜合評分掛鉤。“滴滴護(hù)航”的上線,意味著滴滴出行安全體系進(jìn)一步升級,滴滴也成為國內(nèi)首家將手機(jī)檢測駕駛行為系統(tǒng)應(yīng)用到實踐中的網(wǎng)約車平臺。
基于海量駕駛數(shù)據(jù),滴滴利用移動互利網(wǎng)技術(shù)與機(jī)器學(xué)習(xí)算法,研發(fā)出了駕駛行為感控系統(tǒng)“滴滴護(hù)航”。
該系統(tǒng)所提供的駕駛行為感控SDK(軟件開發(fā)工具包),集成進(jìn)司機(jī)端后,在訂單進(jìn)行時根據(jù)手機(jī)傳感器、陀螺儀、GPS等提供的信息,從疲勞駕駛、超速、急加速、急轉(zhuǎn)彎、急剎車、分心駕駛等六大維度檢測司機(jī)的駕駛行為。
“滴滴護(hù)航”共經(jīng)歷了近一年的測試和研發(fā)。通過與OBD(車載診斷系統(tǒng))對比數(shù)據(jù)后看到,該系統(tǒng)的準(zhǔn)確率已超過90%。目前,該技術(shù)已經(jīng)提交了國際專利申請。
據(jù)悉,該系統(tǒng)的每個維度標(biāo)準(zhǔn)都通過嚴(yán)格的參數(shù)進(jìn)行認(rèn)定。以“超速”為例,即一定時間范圍內(nèi),檢測司機(jī)開車超過當(dāng)前路段限速20%及其以上的嚴(yán)重超速行為。“分心駕駛”則會檢測司機(jī)邊開車邊打電話的行為,基礎(chǔ)參數(shù)為“行駛狀態(tài)下,速度大于18km/h且處于通話狀態(tài)”。根據(jù)一定時間段內(nèi)的數(shù)據(jù)收集、分析、反饋,平臺也會實時做相應(yīng)的優(yōu)化和升級。
目前,該系統(tǒng)已在滴滴代駕司機(jī)端上線,六大維度逐步開放,凡是行程中出現(xiàn)過危險駕駛行為的司機(jī),都會在行程結(jié)束后收到“安全駕駛提醒”。該提醒會詳細(xì)指出司機(jī)危險駕駛行為的種類、位置、時間等信息,督促司機(jī)改變駕駛習(xí)慣。
接下來,滴滴將把“滴滴護(hù)航”與司機(jī)綜合評分結(jié)合起來,同時形成司機(jī)駕駛習(xí)慣的畫像,對其駕駛陋習(xí)針對性糾正。駕駛習(xí)慣好的司機(jī)將享受更多權(quán)益;駕駛習(xí)慣有待改進(jìn)的司機(jī),將進(jìn)入“百川”司機(jī)精準(zhǔn)培訓(xùn)體系重新學(xué)習(xí)。
“安全”是滴滴全平臺的首要目標(biāo)。近些年來,滴滴基于互聯(lián)網(wǎng)和大數(shù)據(jù)前沿技術(shù)的深度應(yīng)用,在提升用戶安全體驗方面不斷做著努力。通過對司機(jī)安全畫像,對風(fēng)險訂單硬性排除,對司機(jī)精準(zhǔn)培訓(xùn)管控,安全教育全量觸達(dá)等方式,滴滴安全管理效率遠(yuǎn)高于傳統(tǒng)出行企業(yè)。
據(jù)統(tǒng)計,2016年全年,滴滴出行運營里程接近傳統(tǒng)出租車行業(yè)的五分之一,但交通事故死亡人數(shù)僅為傳統(tǒng)出租車行業(yè)的十分之一。滴滴每百萬單交通事故死亡率和每億公里交通事故死亡率分別為0.021、0.28,與傳統(tǒng)出租車行業(yè)的0.037和0.47相比,大幅降低了40%。
如今,“滴滴護(hù)航”的上線意味著用戶安全體驗的進(jìn)一步升級。平臺對于司機(jī)駕駛行為的檢測,將督促其提升安全意識并優(yōu)化駕駛行為。滴滴司機(jī)的綜合評分也將從乘客主觀評分和系統(tǒng)模型的判斷,升級到駕駛行為感控的評估。多維度反應(yīng)司機(jī)服務(wù)水準(zhǔn),不僅優(yōu)化了的司機(jī)安全駕駛行為,也將給乘客全方位的安全保障。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實驗發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強(qiáng)于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。