百度、Bing、搜狗等是大家比較熟悉的搜索引擎,而豌豆莢卻另辟蹊徑,著手布局應(yīng)用內(nèi)搜索領(lǐng)域。
豌豆莢的聯(lián)合創(chuàng)始人之一王俊煜曾表示,豌豆莢從來都不把自己定義為應(yīng)用商店,在一開始就確定了做內(nèi)容入口的戰(zhàn)略。
而豌豆莢也依照戰(zhàn)略迅速做出反應(yīng),在去年,豌豆莢發(fā)布了視頻搜索正式版;在今年一月份,豌豆莢則推出了移動(dòng)內(nèi)容搜索戰(zhàn)略以及全新的4.0版本,將搜索范圍拓展到游戲、應(yīng)用軟件、視頻、電子書、壁紙等類別。
今天,豌豆莢在京正式發(fā)布了應(yīng)用內(nèi)搜索技術(shù)協(xié)議,這是國內(nèi)首個(gè)公開發(fā)布、全面支持移動(dòng)獨(dú)有內(nèi)容的應(yīng)用內(nèi)搜索技術(shù)協(xié)議,提供了對(duì)應(yīng)用內(nèi)內(nèi)容的檢索、手里和調(diào)起的標(biāo)準(zhǔn)。
豌豆莢產(chǎn)品設(shè)計(jì)副總裁劉亞平表示,希望今天發(fā)布的應(yīng)用內(nèi)搜索技術(shù)協(xié)議,成為豌豆莢與內(nèi)容提供商,應(yīng)用開發(fā)者構(gòu)建開放和共贏的移動(dòng)互聯(lián)網(wǎng)生態(tài)系統(tǒng)的基礎(chǔ)。在此之上,豌豆莢會(huì)加快整合各類移動(dòng)應(yīng)用的內(nèi)容資源,為用戶帶來優(yōu)質(zhì)和豐富的手機(jī)娛樂搜索體驗(yàn),并將用戶和流量直接導(dǎo)到開發(fā)者的產(chǎn)品中,真正為開發(fā)者帶來效益。
現(xiàn)如今,豌豆莢已經(jīng)囊括了非常豐富的資源,包括195萬部視頻、198萬本電子書、248萬張壁紙。
豌豆莢搜索平臺(tái)技術(shù)負(fù)責(zé)人李大海表示有很多的優(yōu)秀移動(dòng)應(yīng)用誕生在移動(dòng)時(shí)代,他們的內(nèi)容存在于應(yīng)用內(nèi),但是并沒有與之配套的網(wǎng)站,豌豆莢希望能夠全面接入這些移動(dòng)的獨(dú)有內(nèi)容。
豌豆莢應(yīng)用內(nèi)搜索技術(shù)協(xié)議有普適性、經(jīng)濟(jì)性及實(shí)時(shí)性的特點(diǎn),提供不需要應(yīng)用與網(wǎng)頁綁定的途徑、全面支持移動(dòng)端獨(dú)有內(nèi)容的接入。選擇復(fù)用Microdata等方案可降低開發(fā)者接入成本,提升經(jīng)濟(jì)性;內(nèi)容提交上可通過Sitemap來提交內(nèi)容,還可以通過豌豆莢的專用的API,把最新鮮的內(nèi)容推送給豌豆莢。
開發(fā)者通過描述應(yīng)用內(nèi)內(nèi)容、向豌豆莢提交內(nèi)容信息、使應(yīng)用支持外部調(diào)起這三個(gè)步驟即可接入豌豆莢。
據(jù)悉,豌豆莢開發(fā)者中心同步上線應(yīng)用內(nèi)搜索接入申請(qǐng)入口。豌豆莢重視開發(fā)者的利益,豌豆莢也將保證搜索和推薦結(jié)果的公平公正、完全依照內(nèi)容質(zhì)量和用戶使用數(shù)據(jù)提供,與開發(fā)者共同打造開放供應(yīng)的移動(dòng)互聯(lián)網(wǎng)生態(tài)系統(tǒng)。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。