在城市里時(shí)常有這樣的尷尬:總有些開車進(jìn)不去公交車也到不了的地方,雖然距離不短但也只能靠“溜腿”,即便地圖上標(biāo)的很清楚,但沒學(xué)好地理自己就是分不清東南西北——現(xiàn)在這樣的問題不再成為困擾,百度地圖5月1日上線最新功能“步行導(dǎo)航”,讓步行者也能享受極致的導(dǎo)航體驗(yàn),指南數(shù)字生活。
據(jù)悉,百度地圖“步行導(dǎo)航”數(shù)據(jù)覆蓋了58個(gè)城市,包括北京、上海、廣州等國際化大都市,杭州、三亞、大理、拉薩、麗江等旅游熱門目的地,以及西安、太原、南昌等大部分的省會(huì)城市。體現(xiàn)出的數(shù)據(jù)更是細(xì)致到斑馬線、地下通道、天橋、階梯等7個(gè)類型,總數(shù)高達(dá)15885條的步行數(shù)據(jù),如此大量詳盡的步行數(shù)據(jù)引入在行業(yè)內(nèi)尚屬首次,用戶在使用步行導(dǎo)航功能時(shí)可謂“所見即所得”。
在設(shè)置目的地后,百度地圖呈現(xiàn)給用戶的界面除了地圖界面之外,還有“羅盤”指示方向,用戶只需沿著指針方向行走即可,如果偏離方向羅盤會(huì)使用警示指示條提醒,用戶可以直觀知道“該往哪里走”,而無需根據(jù)圖示對(duì)照方向;同時(shí),步行導(dǎo)航還會(huì)提前通知用戶“前方需要轉(zhuǎn)彎”,在路線的轉(zhuǎn)彎處也有明顯的標(biāo)志;在整個(gè)導(dǎo)航過程中,還引入了全景地圖導(dǎo)航,無論是轉(zhuǎn)彎處還是到達(dá)目的地附近后,都可使用全景照片確認(rèn)建筑物位置,對(duì)比實(shí)景準(zhǔn)確到達(dá)目的地。
據(jù)開發(fā)人員介紹,“步行導(dǎo)航”基于大數(shù)據(jù)挖掘分析,充分借鑒汽車導(dǎo)航經(jīng)驗(yàn),分析步行者行為模式后,完全貼合步行者的需求量身打造出的行業(yè)領(lǐng)先產(chǎn)品。對(duì)于步行用戶來說,能夠享受到真正所見即所得的步行導(dǎo)航體驗(yàn),讓人體感官與手機(jī)界面之間形成無障礙的導(dǎo)航溝通,讓數(shù)字世界與真實(shí)世界互動(dòng),從而達(dá)成默契。
據(jù)了解,目前百度地圖“步行導(dǎo)航”功能以數(shù)據(jù)覆蓋范圍廣、界面清晰簡潔、使用便捷等優(yōu)勢(shì)領(lǐng)銜地圖行業(yè),成為百度地圖打造極致用戶體驗(yàn)的又一力作。此前百度地圖基于豐富的生活服務(wù)信息為駕駛者提供了一站式的智能服務(wù);基于大數(shù)據(jù)優(yōu)勢(shì)打造“實(shí)時(shí)公交”,為公共交通乘坐者排憂解難;如今再次為步行用戶推出“步行導(dǎo)航”,說明百度地圖已經(jīng)實(shí)現(xiàn)對(duì)用戶出行方式的全覆蓋,構(gòu)建出立體式的用戶出行服務(wù)體系。
百度地圖負(fù)責(zé)人表示:“移動(dòng)互聯(lián)網(wǎng)改變生活并非一句口號(hào),而是依靠一點(diǎn)一滴改變的積累。百度地圖將改變生活、服務(wù)生活落到實(shí)處,圍繞用戶體驗(yàn)不斷升級(jí)創(chuàng)新,讓用戶能夠不斷感受到移動(dòng)互聯(lián)網(wǎng)給自身帶來的實(shí)惠。”此次步行導(dǎo)航功能的推出,是百度地圖先人一步洞察用戶潛在需求、打造創(chuàng)新產(chǎn)品功能,升級(jí)用戶體驗(yàn)的又一例證。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。