當(dāng)?shù)貢r間本周四,在舊金山舉辦的谷歌年度I/O開發(fā)者大會上,谷歌正式推出了新一代移動操作系統(tǒng)Android M。
類似于2014年發(fā)布的Android L預(yù)覽版,谷歌尚未用甜品或版本號為Android M冠名。不過待今年晚些時候,當(dāng)其在各大設(shè)備上亮相時,我們才能得知相關(guān)細(xì)節(jié)。目前這還只是一款開發(fā)者預(yù)覽版系統(tǒng)。
新系統(tǒng)中的Google Now最有趣之處在于,用戶長按Home鍵便可啟動Google Search應(yīng)用,而無需從設(shè)備屏幕底部刷出。
而最激動人心的是,Google Now將更加智能,它能夠理解用戶所閱讀的郵件,標(biāo)注你正在播放的音樂,并可在調(diào)用時將與其相關(guān)的有用信息顯示出來。谷歌將這項功能稱為Now on Tap。
例如:在聽一首歌時,只需問:“你好Google,她來自哪里?”便可獲知詳細(xì)信息,而不需要說出歌曲演唱者的名字。
Android M正式引入Android Pay移動支付系統(tǒng)。谷歌在2015年全球移動大會上曾談到過該支付平臺,它不僅允許第三方應(yīng)用通過應(yīng)用內(nèi)支付服務(wù)處理款項,還支持近場通訊(NFC)店內(nèi)支付。此外“谷歌錢包”(Google Wallet)服務(wù)也不會就此消失,不過它也將支持Android Pay。
除此之外,類似于蘋果Apple Pay,Android Pay也將支持指紋讀取器,用戶可通過指紋驗證支付。
目前美國有70萬家商店支持用戶使用Android Pay,例如沃爾格林、梅西百貨和百思買,等等。
充電方面,未來Android設(shè)備將可支持最新USB Type C接口,不僅是該設(shè)備的充電端口,也可通過該端口為其他設(shè)備充電。而且該端口上下兩面形狀一致,用戶無需辨別正反。
節(jié)能方面,Android M還加入一項Doze節(jié)能功能,可保證設(shè)備在待機(jī)模式下更節(jié)電。如果設(shè)備長時間不移動的話,系統(tǒng)將自動進(jìn)入休眠狀態(tài)節(jié)電。此時用戶仍可接收到重要提醒和短信,但其功耗至少僅有原先的一半。
新系統(tǒng)中,谷歌對應(yīng)用權(quán)限做了一定的更新調(diào)整,允許用戶對應(yīng)用權(quán)限進(jìn)行高度管理。
過去,用戶每安裝一個應(yīng)用基本上意味著整個安裝包需要獲得全面認(rèn)可的權(quán)限。而現(xiàn)在,應(yīng)用程序會在必要時詢問是否可以訪問設(shè)備的某位置或賬戶。例如,只有當(dāng)你嘗試通過短信應(yīng)用發(fā)送照片時,系統(tǒng)才會發(fā)出權(quán)限請求,詢問是否允許該應(yīng)用訪問你的相機(jī)應(yīng)用,這與iOS設(shè)備在授權(quán)處理方面相類似。
谷歌在I/O大會上表示:“在新的許可模式下,用戶應(yīng)用將實現(xiàn)無縫化更新。”
谷歌為Android M加強(qiáng)了軟件、應(yīng)用之間的關(guān)聯(lián),使得其相互之間的轉(zhuǎn)換更為流暢。這一特性將在今年第三季度面向用戶推出。
Android M預(yù)覽版目前僅供開發(fā)人員在谷歌Nexus設(shè)備上運(yùn)行,在登陸其他設(shè)備前,該系統(tǒng)應(yīng)該會先登陸Nexus設(shè)備。
我們推測,谷歌或許會用Android 5.2或6.0作為Android M的代號,并選取一種甜點命名。不過其代號目前仍懸而未決,棉花糖(Marshmallow)、小松餅(Muffin)、杏仁糖(Marzipan)等綽號均為人們所津津樂道。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實驗發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強(qiáng)于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。