作為手機(jī)的"第0屏",鎖屏是用戶與手機(jī)內(nèi)容和信息接觸的起點(diǎn)。但據(jù)2014年aviate智能平臺(tái)調(diào)研的數(shù)據(jù)顯示,全球每臺(tái)智能手機(jī)用戶每天要解鎖手機(jī)115次,與應(yīng)用互動(dòng)100余次,頻繁的解鎖也使得人與手機(jī)的交互變得不高效。
1月28日,豌豆莢正式發(fā)布基于應(yīng)用內(nèi)搜索技術(shù)的“Snap效率鎖屏”。豌豆莢現(xiàn)在依然定位“移動(dòng)內(nèi)容搜索”,該產(chǎn)品將通知信息連接鎖屏界面,不解鎖手機(jī)也能查看通知。
與傳統(tǒng)強(qiáng)調(diào)主題和美化鎖屏產(chǎn)品模式不同,“Snap效率鎖屏”強(qiáng)調(diào)效率,將待處理信息移至鎖屏界面。豌豆莢聯(lián)合創(chuàng)始人兼CEO王俊煜表示,未來(lái)豌豆莢還將在該應(yīng)用上整合更多的功能。
據(jù)悉,“Snap 效率鎖屏”目前已經(jīng)接入“墨跡天氣”、“大眾點(diǎn)評(píng)”、“今日摘要”等日常應(yīng)用,也將類似“票券夾”等管理用戶電子票據(jù)的生活服務(wù)功能整合其中。如果用戶沒(méi)有安裝相關(guān)應(yīng)用,會(huì)打開(kāi)相應(yīng)應(yīng)用的HTML5頁(yè)面,強(qiáng)化“簡(jiǎn)化用戶操作”。
對(duì)于豌豆莢來(lái)說(shuō),“Snap效率鎖屏”的發(fā)布,同樣是為了爭(zhēng)奪移動(dòng)內(nèi)容入口,同樣是定位“移動(dòng)內(nèi)容搜索”。
事實(shí)上,早在2014年3月,豌豆莢就曾發(fā)布“應(yīng)用內(nèi)搜索技術(shù)協(xié)議”,規(guī)定了應(yīng)用內(nèi)內(nèi)容的檢索、收錄和應(yīng)用調(diào)起的標(biāo)準(zhǔn)。而開(kāi)發(fā)者只需通過(guò)三個(gè)步驟即可接入豌豆莢:描述應(yīng)用內(nèi)內(nèi)容、向豌豆莢提交內(nèi)容信息、使應(yīng)用支持外部調(diào)起。
通過(guò)這個(gè)協(xié)議,豌豆莢打通了應(yīng)用、游戲、視頻、小說(shuō)等產(chǎn)品,有能力引導(dǎo)用戶直接打開(kāi)應(yīng)用消費(fèi)這些內(nèi)容。
此次發(fā)布的“Snap效率鎖屏”同樣是基于“應(yīng)用內(nèi)搜索技術(shù)”,王俊煜稱,應(yīng)用內(nèi)搜索帶給豌豆莢兩種獨(dú)特的能力:一種是能夠打通各種應(yīng)用、全面準(zhǔn)確地收錄各種內(nèi)容;另一種是縮短用戶與應(yīng)用內(nèi)信息的距離、讓用戶直達(dá)行動(dòng)。
至于信息安全問(wèn)題,Snap效率鎖屏產(chǎn)品經(jīng)理汪超駿透露,后續(xù)版本中將增加隱私分級(jí)功能,可個(gè)性化設(shè)置內(nèi)容的安全等級(jí),隱藏相關(guān)應(yīng)用內(nèi)容。
與iOS信息推送類似,Snap也將會(huì)微信、QQ等部分聊天內(nèi)容呈現(xiàn)在鎖屏上。
“Snap 效率鎖屏”已更新至3.1版本,根據(jù)豌豆莢官方數(shù)據(jù)顯示,該應(yīng)用已積累 450 萬(wàn)用戶,增長(zhǎng)率達(dá)到 100%。平均每個(gè)“Snap 效率鎖屏”用戶每天點(diǎn)亮屏幕108次,平均每天在下午5點(diǎn)呈現(xiàn)使用高峰、在晚上9點(diǎn)達(dá)到最高峰值——平均亮屏11.9次,基本每5分鐘會(huì)收到一條通知。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過(guò)交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開(kāi)辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過(guò)讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問(wèn)題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問(wèn)題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過(guò)創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開(kāi)發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過(guò)學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來(lái)了效率和精度的雙重突破。