11月8日消息,滴滴出行今日宣布開源Web移動端組件庫cube-ui,該技術(shù)擁有質(zhì)量可靠、體驗極致、標(biāo)準(zhǔn)規(guī)范和強(qiáng)擴(kuò)展性這四大特點(diǎn),并擁有獨(dú)特的后編譯技術(shù)方案幫助大幅優(yōu)化性能。這是繼今年6月開源Virtual APK后,滴滴的又一次開源動作。
cube-ui 從滴滴業(yè)務(wù)中提煉而來,由滴滴 WebApp 前端架構(gòu)組開發(fā)和維護(hù)。cube-ui 的目標(biāo)是讓移動端的開發(fā)更容易,讓開發(fā)人員更加專注于業(yè)務(wù)邏輯的開發(fā),提升研發(fā)效率。
之所以將其開源,滴滴方面透露:“去年底,滴滴 WebApp 團(tuán)隊在用 Vue.js 2.0 對業(yè)務(wù)進(jìn)行重構(gòu),并開發(fā)了一套移動端組件庫 cube-ui 支撐業(yè)務(wù)的開發(fā),經(jīng)過了一年多的業(yè)務(wù)考驗,cube-ui 也日趨成熟,好的東西必須要和大家分享,于是我們在今天正式將其開源。”
該技術(shù)研發(fā)工程師發(fā)表了經(jīng)驗之談:“移動端組件庫寫的好不好,就看 Picker 組件寫的好不好,而cube-ui 的 Picker 是目前所有移動端組件庫中實(shí)現(xiàn)最細(xì)致、體驗也是最好的,接近原生 iOS 選擇器的效果。類似的還有 IndexList 索引列表組件,我們在一些交互的細(xì)節(jié)上都考慮的非常細(xì)致,比如對吸頂標(biāo)題的處理,按壓態(tài)的處理等。”
相較于市面上同類技術(shù),該項目獨(dú)有的后編譯技術(shù)是滴滴前端團(tuán)隊總結(jié)出的一套優(yōu)化技術(shù)方案。由于在一個項目中經(jīng)常會引用多個經(jīng)過 ES6 開發(fā)、Babel編譯發(fā)布的NPM模塊,而Babel編譯則會產(chǎn)生多份額外代碼,針對該問題,cube-ui 組件庫運(yùn)用了后編譯技術(shù)方案,可讓最終使用方引用 cube-ui 組件庫編譯產(chǎn)生的代碼體積減少,幫助優(yōu)化性能。滴滴研發(fā)同學(xué)也呼吁越來越多的NPM 模塊支持后編譯,這樣應(yīng)用最終編譯后體積才會更小,后編譯技術(shù)方案效果才會更好。
未來滴滴的工程師們將持續(xù)對 cube-ui 迭代和優(yōu)化,包括但不限于以下幾個方向:豐富組件庫,開發(fā)更多通用組件; 支持換膚功能,和 UI 團(tuán)隊配合設(shè)計出幾套皮膚,同時也支持自定義皮膚能力;支持TypeScript/Flow,由于靜態(tài)類型檢查是未來趨勢,cube-ui 也會考慮對它們的支持。
目前,cube-ui已登錄GitHub,工程師們可戳鏈接查看源碼:https://github.com/didi/cube-ui,也可在滴滴的開源平臺上(https://didi.github.io/)獲取更多信息。
開源文化正在成為滴滴程序員文化的重要一部分,不久前的10月24日程序員節(jié),桔廠宣布成立開源委員會,由高級副總裁章文嵩出任主席,他說:“滴滴除了要為用戶提供優(yōu)秀的產(chǎn)品和良好的體驗外,更需要對外輸出滴滴領(lǐng)先的技術(shù),與世界共享我們的智慧,所以我們鼓勵同學(xué)們積極參與業(yè)界的開源項目,不斷對外輸出內(nèi)部的優(yōu)秀項目。”
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實(shí)驗發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強(qiáng)于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。