2015美國國際消費(fèi)電子展(CES)正進(jìn)行得如火如荼,在這個吸引萬千關(guān)注的世界舞臺上,搭載EMUI系統(tǒng)的華為眾旗艦機(jī)型集體亮相。特別值得注意的是,華為EMUI在展會現(xiàn)場宣布與國際知名社交服務(wù)軟件Omlet合作,推出可能是目前世界上最快的一鍵圖片分享功能,為全球華為手機(jī)用戶帶來了更極致的社交分享體驗(yàn)。
搭載EMUI系統(tǒng)的華為展臺成為現(xiàn)場焦點(diǎn)
EMUI系統(tǒng)近景展示
基于同Omlet的合作,華為EMUI系統(tǒng)具備了全新的Share-First(鎖屏共享)功能,它有可能是目前世界最快的圖片分享模式。該功能極大節(jié)省了用戶的社交成本,從屏幕解鎖、拍照到點(diǎn)擊向朋友分享照片,僅需數(shù)秒;如果對方同樣使用華為手機(jī),還可以直接在手機(jī)鎖屏狀態(tài)下預(yù)覽圖片。
快速分享的概念不僅限于拍照后與朋友分享,甚至包括手機(jī)本地的圖片庫、手機(jī)主題等均可實(shí)現(xiàn)一鍵分享。最重要的是,用戶不需要登錄任何社交媒體平臺,只要在華為手機(jī)主題APP中找到分享按鈕,即可完成推送和分享。此外,用戶可與朋友創(chuàng)建聯(lián)合相冊,針對照片互相評論或點(diǎn)贊。
華為消費(fèi)者業(yè)務(wù)軟件副總裁蘇杰說到:“我們十分興奮能夠與Omlet合作實(shí)現(xiàn)手機(jī)鎖屏狀態(tài)下的分享功能,Share-First(鎖屏共享)將是目前為止最簡單的照片分享方式。與起源于斯坦福大學(xué)的這一獨(dú)特平臺合作,有助于實(shí)現(xiàn)華為做世界最好手機(jī)的愿景。在移動互聯(lián)網(wǎng)時代,我們希望能夠?yàn)橛脩魟?chuàng)造更多社交溝通和分享的樂趣,又能夠保障數(shù)據(jù)安全問題,期待更多創(chuàng)新的分享玩法。”
Omlet是一款能讓用戶自主管理聊天數(shù)據(jù)的開放式平臺,用戶是這些數(shù)據(jù)的唯一擁有者,完全顛覆了類Facebook社交工具的模式。Omlet上線短短9個月時間,已經(jīng)吸引了300萬次下載,占據(jù)IOS、Andriod 熱門APP榜單,并且已經(jīng)被整合進(jìn)了iStanford(斯坦福的校園應(yīng)用)。由此可見,Omlet具備獨(dú)特的創(chuàng)新力和海外市場影響力。
長期以來,華為EMUI一直致力于打造全球化移動互聯(lián)生態(tài)系統(tǒng),基于不斷的科技創(chuàng)新來推動自身全球化進(jìn)程,與國際先進(jìn)軟件廠商合作正是一個互利共贏、加速創(chuàng)新升級的有效途徑之一。正如Omlet聯(lián)合創(chuàng)始人、斯坦福大學(xué)教授莫妮卡•拉姆所言:“我們很高興看到華為和Omlet建立合作關(guān)系,華為希望將手機(jī)分享做到極致簡單,期待雙方通過共同努力,基于尊重隱私的開放社交生態(tài)系統(tǒng)進(jìn)一步擴(kuò)展。”
當(dāng)中國手機(jī)品牌都打著“走出去”的旗號暢想全球市場時,華為已經(jīng)通過EMUI的科技創(chuàng)新付諸于行動,全新的鎖屏共享功能將給全球用戶帶來更安全更極致的社交分享體驗(yàn)。
好文章,需要你的鼓勵
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運(yùn)動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運(yùn)動質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。