法國當?shù)貢r間6月18日下午,作為首家受到官方邀請的中國媒體公司,網(wǎng)易傳媒登上了2016年戛納國際創(chuàng)意節(jié)的主會場舞臺。在專場論壇中,網(wǎng)易傳媒市場部總經(jīng)理李安,與北京大學劉德寰教授、三只松鼠首席品牌官郭廣宇以及艾問傳媒創(chuàng)始人艾誠一道,圍繞中國移動互聯(lián)網(wǎng)時代的特征和族群現(xiàn)象展開現(xiàn)場討論,向世界各地一流的廣告、營銷以及媒體公司展示了中國互聯(lián)網(wǎng)媒體的先鋒態(tài)度和實踐成果。與此同時,網(wǎng)易傳媒與北京大學雙方聯(lián)合研究的首部《移動時代下的中國態(tài)度族群》報告也在戛納現(xiàn)場發(fā)布,向全球廣告界分享了身處移動時代的浪潮中,網(wǎng)易傳媒對于新一代用戶的洞察和思考,引發(fā)了現(xiàn)場觀眾的強烈興趣。
2016戛納國際創(chuàng)意節(jié)網(wǎng)易傳媒專場論壇,從左至右依次為艾誠、劉德寰、李安、郭廣宇。
近幾年來,中國移動互聯(lián)網(wǎng)經(jīng)歷了令全球矚目的高速發(fā)展,正處在“黃金時代”的中國移動互聯(lián)網(wǎng),造就了龐大且多樣化的移動網(wǎng)民,進而演化出復雜多樣、別具特色的族群生態(tài)。正如網(wǎng)易傳媒與北京大學的聯(lián)合研究指出,中國市場最大的特征,就是用戶需求非常多樣化。那么如何精準結(jié)合各個族群的特征,有針對性地在商業(yè)模式和營銷方式上進行創(chuàng)新,成為企業(yè)在中國的移動時代下能否把握機會、取得成功的核心挑戰(zhàn)。
李安認為,當下的中國移動互聯(lián)網(wǎng)環(huán)境,要求企業(yè)在了解用戶的行為習慣之上,還需要更深入地理解他們行為背后的態(tài)度和情感表達,才算實現(xiàn)對用戶真正的“洞察”。作為一家定位于“有態(tài)度”的媒體平臺,網(wǎng)易傳媒多年來累計了眾多有立場、有態(tài)度的用戶。在網(wǎng)易傳媒看來,用戶不單單是數(shù)字營銷理論中理性冰冷的“目標人群”,而是有各種各樣鮮活需求和情感表達的個體。為此,網(wǎng)易傳媒在大數(shù)據(jù)分析系統(tǒng)中注入了感性的“態(tài)度標簽”元素,通過捕捉人們的態(tài)度訴求,更精準地洞察用戶情感,從而挖掘出用戶與品牌之間的真實連接點。此次在戛納發(fā)布首部《移動時代下的中國態(tài)度族群》報告,是網(wǎng)易傳媒多年來聚焦用戶情感洞察的一份階段性總結(jié),也是網(wǎng)易傳媒在“態(tài)度營銷”中的又一次深度探索。
以前沿技術(shù)為依托,用“態(tài)度”連接內(nèi)容、用戶以及客戶,這一創(chuàng)新的營銷推廣思路正在被不斷應用到實踐當中。例如當用戶打開“網(wǎng)易新聞客戶端”時,除了可以在首頁閱讀到3-5條由編輯精選過的當日熱點新聞外,每個用戶都會看到根據(jù)自己平日的閱讀習慣和興趣點實時定制的推送內(nèi)容,在細節(jié)中提升用戶體驗。與此同時,網(wǎng)易聯(lián)合秒針系統(tǒng),分析挖掘熱門新聞后的跟貼評論,進而提煉出網(wǎng)絡(luò)“態(tài)度熱詞”,意在用大數(shù)據(jù)的技術(shù)與思維,將感性數(shù)據(jù)元素加入到理性DMP系統(tǒng)中,從而幫助品牌找到與用戶建立情感共鳴的連接點;而豐富多樣的移動族群,則能夠讓品牌在與用戶的溝通中更有的放矢。
“以大數(shù)據(jù)為基石,以人為本,重視每一個屏幕背后的態(tài)度,用產(chǎn)品、技術(shù)、服務的力量,滿足他們,從而實現(xiàn)每一個品牌的價值。”李安在談企業(yè)面對移動時代下的中國族群該如何把握機遇時這樣表示。相信在這個時代,企業(yè)對移動族群的洞察必然會成為其在產(chǎn)品、服務以及營銷上不斷創(chuàng)新的源動力。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。