2015美國國際消費(fèi)電子展(CES)正進(jìn)行得如火如荼,在這個(gè)吸引萬千關(guān)注的世界舞臺(tái)上,搭載EMUI系統(tǒng)的華為眾旗艦機(jī)型集體亮相。特別值得注意的是,華為EMUI在展會(huì)現(xiàn)場(chǎng)宣布與國際知名社交服務(wù)軟件Omlet合作,推出可能是目前世界上最快的一鍵圖片分享功能,為全球華為手機(jī)用戶帶來了更極致的社交分享體驗(yàn)。
搭載EMUI系統(tǒng)的華為展臺(tái)成為現(xiàn)場(chǎng)焦點(diǎn)
EMUI系統(tǒng)近景展示
基于同Omlet的合作,華為EMUI系統(tǒng)具備了全新的Share-First(鎖屏共享)功能,它有可能是目前世界最快的圖片分享模式。該功能極大節(jié)省了用戶的社交成本,從屏幕解鎖、拍照到點(diǎn)擊向朋友分享照片,僅需數(shù)秒;如果對(duì)方同樣使用華為手機(jī),還可以直接在手機(jī)鎖屏狀態(tài)下預(yù)覽圖片。
快速分享的概念不僅限于拍照后與朋友分享,甚至包括手機(jī)本地的圖片庫、手機(jī)主題等均可實(shí)現(xiàn)一鍵分享。最重要的是,用戶不需要登錄任何社交媒體平臺(tái),只要在華為手機(jī)主題APP中找到分享按鈕,即可完成推送和分享。此外,用戶可與朋友創(chuàng)建聯(lián)合相冊(cè),針對(duì)照片互相評(píng)論或點(diǎn)贊。
華為消費(fèi)者業(yè)務(wù)軟件副總裁蘇杰說到:“我們十分興奮能夠與Omlet合作實(shí)現(xiàn)手機(jī)鎖屏狀態(tài)下的分享功能,Share-First(鎖屏共享)將是目前為止最簡(jiǎn)單的照片分享方式。與起源于斯坦福大學(xué)的這一獨(dú)特平臺(tái)合作,有助于實(shí)現(xiàn)華為做世界最好手機(jī)的愿景。在移動(dòng)互聯(lián)網(wǎng)時(shí)代,我們希望能夠?yàn)橛脩魟?chuàng)造更多社交溝通和分享的樂趣,又能夠保障數(shù)據(jù)安全問題,期待更多創(chuàng)新的分享玩法。”
Omlet是一款能讓用戶自主管理聊天數(shù)據(jù)的開放式平臺(tái),用戶是這些數(shù)據(jù)的唯一擁有者,完全顛覆了類Facebook社交工具的模式。Omlet上線短短9個(gè)月時(shí)間,已經(jīng)吸引了300萬次下載,占據(jù)IOS、Andriod 熱門APP榜單,并且已經(jīng)被整合進(jìn)了iStanford(斯坦福的校園應(yīng)用)。由此可見,Omlet具備獨(dú)特的創(chuàng)新力和海外市場(chǎng)影響力。
長期以來,華為EMUI一直致力于打造全球化移動(dòng)互聯(lián)生態(tài)系統(tǒng),基于不斷的科技創(chuàng)新來推動(dòng)自身全球化進(jìn)程,與國際先進(jìn)軟件廠商合作正是一個(gè)互利共贏、加速創(chuàng)新升級(jí)的有效途徑之一。正如Omlet聯(lián)合創(chuàng)始人、斯坦福大學(xué)教授莫妮卡•拉姆所言:“我們很高興看到華為和Omlet建立合作關(guān)系,華為希望將手機(jī)分享做到極致簡(jiǎn)單,期待雙方通過共同努力,基于尊重隱私的開放社交生態(tài)系統(tǒng)進(jìn)一步擴(kuò)展。”
當(dāng)中國手機(jī)品牌都打著“走出去”的旗號(hào)暢想全球市場(chǎng)時(shí),華為已經(jīng)通過EMUI的科技創(chuàng)新付諸于行動(dòng),全新的鎖屏共享功能將給全球用戶帶來更安全更極致的社交分享體驗(yàn)。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。