CNET科技資訊網(wǎng) 7月26日 北京消息:滴滴出行今日正式對外公布了“安全駕駛”系統(tǒng),該系統(tǒng)被稱為“滴滴護(hù)航”,是滴滴平臺自主研發(fā)的安全產(chǎn)品。綜合分析手機傳感器、陀螺儀、GPS等信息,“滴滴護(hù)航”從疲勞駕駛、超速、急加速、急轉(zhuǎn)彎、急剎車、分心駕駛等六個維度檢測司機的駕駛行為,提高司機個人與平臺的安全保障水平。
目前,該系統(tǒng)已在滴滴代駕司機端上線,檢測維度正逐步開放,不久后將在??燔嚨葮I(yè)務(wù)司機端推廣,并計劃和司機的綜合評分掛鉤。“滴滴護(hù)航”的上線,意味著滴滴出行安全體系進(jìn)一步升級,滴滴也成為國內(nèi)首家將手機檢測駕駛行為系統(tǒng)應(yīng)用到實踐中的網(wǎng)約車平臺。
基于海量駕駛數(shù)據(jù),滴滴利用移動互利網(wǎng)技術(shù)與機器學(xué)習(xí)算法,研發(fā)出了駕駛行為感控系統(tǒng)“滴滴護(hù)航”。
該系統(tǒng)所提供的駕駛行為感控SDK(軟件開發(fā)工具包),集成進(jìn)司機端后,在訂單進(jìn)行時根據(jù)手機傳感器、陀螺儀、GPS等提供的信息,從疲勞駕駛、超速、急加速、急轉(zhuǎn)彎、急剎車、分心駕駛等六大維度檢測司機的駕駛行為。
“滴滴護(hù)航”共經(jīng)歷了近一年的測試和研發(fā)。通過與OBD(車載診斷系統(tǒng))對比數(shù)據(jù)后看到,該系統(tǒng)的準(zhǔn)確率已超過90%。目前,該技術(shù)已經(jīng)提交了國際專利申請。
據(jù)悉,該系統(tǒng)的每個維度標(biāo)準(zhǔn)都通過嚴(yán)格的參數(shù)進(jìn)行認(rèn)定。以“超速”為例,即一定時間范圍內(nèi),檢測司機開車超過當(dāng)前路段限速20%及其以上的嚴(yán)重超速行為。“分心駕駛”則會檢測司機邊開車邊打電話的行為,基礎(chǔ)參數(shù)為“行駛狀態(tài)下,速度大于18km/h且處于通話狀態(tài)”。根據(jù)一定時間段內(nèi)的數(shù)據(jù)收集、分析、反饋,平臺也會實時做相應(yīng)的優(yōu)化和升級。
目前,該系統(tǒng)已在滴滴代駕司機端上線,六大維度逐步開放,凡是行程中出現(xiàn)過危險駕駛行為的司機,都會在行程結(jié)束后收到“安全駕駛提醒”。該提醒會詳細(xì)指出司機危險駕駛行為的種類、位置、時間等信息,督促司機改變駕駛習(xí)慣。
接下來,滴滴將把“滴滴護(hù)航”與司機綜合評分結(jié)合起來,同時形成司機駕駛習(xí)慣的畫像,對其駕駛陋習(xí)針對性糾正。駕駛習(xí)慣好的司機將享受更多權(quán)益;駕駛習(xí)慣有待改進(jìn)的司機,將進(jìn)入“百川”司機精準(zhǔn)培訓(xùn)體系重新學(xué)習(xí)。
“安全”是滴滴全平臺的首要目標(biāo)。近些年來,滴滴基于互聯(lián)網(wǎng)和大數(shù)據(jù)前沿技術(shù)的深度應(yīng)用,在提升用戶安全體驗方面不斷做著努力。通過對司機安全畫像,對風(fēng)險訂單硬性排除,對司機精準(zhǔn)培訓(xùn)管控,安全教育全量觸達(dá)等方式,滴滴安全管理效率遠(yuǎn)高于傳統(tǒng)出行企業(yè)。
據(jù)統(tǒng)計,2016年全年,滴滴出行運營里程接近傳統(tǒng)出租車行業(yè)的五分之一,但交通事故死亡人數(shù)僅為傳統(tǒng)出租車行業(yè)的十分之一。滴滴每百萬單交通事故死亡率和每億公里交通事故死亡率分別為0.021、0.28,與傳統(tǒng)出租車行業(yè)的0.037和0.47相比,大幅降低了40%。
如今,“滴滴護(hù)航”的上線意味著用戶安全體驗的進(jìn)一步升級。平臺對于司機駕駛行為的檢測,將督促其提升安全意識并優(yōu)化駕駛行為。滴滴司機的綜合評分也將從乘客主觀評分和系統(tǒng)模型的判斷,升級到駕駛行為感控的評估。多維度反應(yīng)司機服務(wù)水準(zhǔn),不僅優(yōu)化了的司機安全駕駛行為,也將給乘客全方位的安全保障。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。