在PC互聯(lián)網(wǎng)時(shí)代,網(wǎng)頁(yè)是搜索的主要途徑,而在移動(dòng)互聯(lián)網(wǎng)時(shí)代,應(yīng)用搜索不可或缺的當(dāng)下,豌豆莢爭(zhēng)先發(fā)布應(yīng)用內(nèi)搜索技術(shù)協(xié)議,提供了對(duì)于應(yīng)用內(nèi)內(nèi)容的檢索、收錄和調(diào)起的標(biāo)準(zhǔn)。
豌豆莢產(chǎn)品設(shè)計(jì)副總裁劉亞平表示,豌豆莢并不提供、生產(chǎn)應(yīng)用內(nèi)容,其資源均來自合作伙伴,希望應(yīng)用內(nèi)搜索技術(shù)協(xié)議能成為豌豆莢與內(nèi)容提供商、應(yīng)用開發(fā)者構(gòu)建開放和共贏的移動(dòng)互聯(lián)網(wǎng)生態(tài)系統(tǒng)的基礎(chǔ)。
圖為豌豆莢產(chǎn)品設(shè)計(jì)副總裁劉亞平
豌豆莢在整合各類移動(dòng)應(yīng)用的內(nèi)容資源、為用戶帶來優(yōu)質(zhì)和豐富的手機(jī)娛樂搜索體驗(yàn)的同時(shí),將用戶和流量直接導(dǎo)到開發(fā)者的產(chǎn)品中,為開發(fā)者帶來收益。
因此,作為國(guó)內(nèi)首個(gè)公開發(fā)布、唯一全面支持移動(dòng)獨(dú)有內(nèi)容的應(yīng)用內(nèi)搜索技術(shù)協(xié)議,上線2個(gè)月以來,帶給第三方應(yīng)用的直接調(diào)起和新用戶量均已達(dá)到千萬(wàn)量級(jí)。截止到今年4月,豌豆莢應(yīng)用內(nèi)搜索已達(dá)140萬(wàn)。
應(yīng)用內(nèi)搜索技術(shù)主要是對(duì)搜索的內(nèi)容進(jìn)行結(jié)構(gòu)化描述,該協(xié)議具有普適性、經(jīng)濟(jì)性和實(shí)時(shí)性特點(diǎn),提供不需要應(yīng)用與網(wǎng)頁(yè)綁定的路徑、全面支持移動(dòng)端獨(dú)有內(nèi)容的接入;在技術(shù)選型上復(fù)用 Microdata 等成熟方案降低開發(fā)者接入成本、提升經(jīng)濟(jì)性;在內(nèi)容提交上,除了使用網(wǎng)站地圖sitemap的方式之外,豌豆莢還提供專用 API,讓合作伙伴能夠?qū)崟r(shí)地把最重要的新鮮內(nèi)容推送給豌豆莢。
值得一提的是,豌豆莢開發(fā)者中心同步上線接入申請(qǐng)入口,開發(fā)者可需通過三個(gè)步驟接入豌豆莢:描述應(yīng)用內(nèi)內(nèi)容、向豌豆莢提交內(nèi)容信息、使應(yīng)用支持外部調(diào)起。豌豆莢重視開發(fā)者的利益,將始終保證搜索和推薦結(jié)果的公平公正、完全依照內(nèi)容質(zhì)量和用戶使用的數(shù)據(jù)提供。
一直以來,豌豆莢堅(jiān)持定位成內(nèi)容入口的戰(zhàn)略,專注于移動(dòng)內(nèi)容搜索。去年,豌豆莢發(fā)布了視頻搜索正式版;今年1月,移動(dòng)內(nèi)容搜索及 4.0 版本的上線,將搜索擴(kuò)展到應(yīng)用、游戲、視頻、電子書、壁紙等多個(gè)娛樂內(nèi)容類別。至今,豌豆莢在應(yīng)用、游戲品類之外的新增內(nèi)容品類用戶已超過 6000 萬(wàn),內(nèi)容消費(fèi)超過 8 億次,內(nèi)容全部憑借應(yīng)用內(nèi)搜索,索引自優(yōu)酷、搜狐視頻、掌閱、愛閱讀等 20 余款第三方應(yīng)用內(nèi)。到目前為止,豌豆莢共收錄了 195 萬(wàn)部視頻 ,198 萬(wàn)本電子書,248 萬(wàn)張壁紙。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。
關(guān)注科技創(chuàng)新、技術(shù)投資。
以文會(huì)友,左手硬核科技,右手浪漫主義。