今天百度世界大會(huì)2014的主題是“直達(dá)號(hào)”,這是一款商家在百度移動(dòng)平臺(tái)的官方服務(wù)帳號(hào),與微信公眾號(hào)是直接競(jìng)爭(zhēng)關(guān)系。
就在上周,李彥宏與馬化騰剛剛在深圳攜手萬(wàn)達(dá)共建電商,今天就“翻臉”痛批微信公眾號(hào)。Robin為了推出“直達(dá)號(hào)”,在今天的演講中作了大大的鋪墊。他列舉出各種案例與數(shù)據(jù),來(lái)證明目前移動(dòng)上的產(chǎn)品對(duì)企業(yè)推廣的缺陷。
“百度移動(dòng)端流量的質(zhì)量低,某些天移動(dòng)流量高于pc流量,但收入還是只占30%,說(shuō)明變現(xiàn)能力還是低于pc。其他互聯(lián)網(wǎng)主流公司只占20%,甚至更低。”
“從Native APP來(lái)看,存在用戶不愿下載,而下載了活躍度也不高的問(wèn)題。”
“而餐飲企業(yè)要想刺激本來(lái)沒(méi)有需求的用戶進(jìn)行消費(fèi),餐飲經(jīng)常做的事情是做活動(dòng)。某火鍋利用微信公眾號(hào)做的市場(chǎng)活動(dòng),通過(guò)第三方開發(fā)至少要一個(gè)月。另外一個(gè)例子是,寶澤行的公眾號(hào)訂閱量是5000,但只有不到5%的客戶通過(guò)公眾號(hào)預(yù)約服務(wù),效果不明顯。說(shuō)明通過(guò)微信公眾號(hào)的新客戶轉(zhuǎn)化幾乎沒(méi)有。”
Robin對(duì)微信公眾號(hào)的批評(píng)可以說(shuō)是不留情面,那么直達(dá)號(hào)到底是怎樣的解決方案?
百度最年輕的副總裁李明遠(yuǎn)介紹,與移動(dòng)號(hào)、Native APP、公眾號(hào)等眾多營(yíng)銷手段相比,直達(dá)號(hào)具備“廣拉新、高轉(zhuǎn)化、強(qiáng)留存、易開通”四大優(yōu)勢(shì)。
“直達(dá)號(hào)”開放平臺(tái)在今天上線,初期采取邀請(qǐng)制,商家可以通過(guò)該平臺(tái)申請(qǐng)首批10000個(gè)邀請(qǐng)碼。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。