12月7日,“2017年度中國觀看體驗報告”發(fā)布會在京舉行,愛奇藝高級副總裁耿聃皓、總編輯高瑾、數(shù)據(jù)研究院院長葛承志、暨南大學生活方式研究院院長費勇等多位企業(yè)高管、行業(yè)研究專家與會。會上,愛奇藝科技頻道聯(lián)合暨南大學生活方式研究院共同發(fā)布“2017年度中國觀看體驗報告”,報告從用戶角度對視頻觀看體驗進行權威表述,深入分析影響觀看體驗的主要因素。報告中指出,當下國內消費結構持續(xù)更新升級,單一的功能性產品已經無法滿足市場需要,只有不斷探索、升級多樣化用戶體驗模式,才能真正提升用戶品質娛樂生活,滿足人們日益增長的娛樂需求。
此次“2017年度中國觀看體驗報告”的發(fā)布是愛奇藝作為內容平臺聯(lián)合專業(yè)學術研究力量,為用戶能夠擁有更完善的視頻觀看服務體驗提供專業(yè)理論依據(jù)與指導。此外,發(fā)布會還舉辦了“觀看體驗&生活方式”主題沙龍活動,與會嘉賓圍繞“觀看體驗與泛娛樂營銷”“產品創(chuàng)新與觀看體驗變革”“藝術、科技與商業(yè)空間”三個話題展開深入探討。
深化升級觀看體驗服務 以科技創(chuàng)新引領娛樂新趨勢
伴隨視頻平臺大數(shù)據(jù)、科技力量的強化,基于用戶行為分析與用戶需求挖掘的用戶體驗成為各大平臺關注的焦點。發(fā)布會上,愛奇藝高級副總裁耿聃皓發(fā)表“科技創(chuàng)新引領娛樂新趨勢”的主題演講。耿聃皓表示,作為一家以科技創(chuàng)新為驅動的偉大娛樂公司,愛奇藝已經成功布局影視、音樂、粉絲、泛二次元、生活方式等娛樂生態(tài)內容,同時擁有最懂娛樂的人才和最懂娛樂的“機器”。其中最懂娛樂的機器是AI。AI技術的應用將促進愛奇藝對于內容、用戶和合作伙伴多方需求的深刻理解,不斷催化用戶娛樂體驗的升級,進而實現(xiàn)整個娛樂產業(yè)進步。2017年愛奇藝聯(lián)合百度共同發(fā)布“百愛計劃”,百度AI技術、用戶數(shù)據(jù)、營銷平臺、媒體資源將與愛奇藝超級娛樂內容全面整合,打破創(chuàng)新技術與優(yōu)質內容的界限,專注于用戶觀看體驗。耿聃皓強調,愛奇藝將以科技創(chuàng)新引領娛樂新趨勢,最終建立起一個惠及所有用戶的娛樂王國。
如今,隨著視頻娛樂內容的多元化發(fā)展,技術創(chuàng)新成為構建視頻內容生態(tài)的重要支撐。對此,愛奇藝數(shù)據(jù)研究院院長葛承志從在線視頻發(fā)展趨勢以及愛奇藝用戶畫像、數(shù)據(jù)角度,深入洞察視頻行業(yè)年輕化、移動化、娛樂化的發(fā)展態(tài)勢。葛承志表示,作為視頻行業(yè)領導者,愛奇藝憑借對于用戶畫像精準分析,在PC端、移動端始終保持行業(yè)領先優(yōu)勢。根據(jù)第三方機構艾瑞咨詢10月份數(shù)據(jù)顯示,愛奇藝PC端月度總有效瀏覽時間、月度覆蓋人數(shù)以及移動端月度總有效使用時間、月度獨立設備數(shù)四大核心數(shù)據(jù)均保持行業(yè)第一的位置。此外,愛奇藝通過強大后臺數(shù)據(jù)技術采集用戶畫像,深入分析用戶需求,為億萬愛奇藝用戶推送優(yōu)質內容。伴隨“2017年度中國觀看體驗報告”的發(fā)布,愛奇藝希望借助專業(yè)學術力量,在未來為用戶提供更加完善的觀看體驗服務。從技術創(chuàng)新突破到用戶需求精確把控,愛奇藝始終以用戶為中心,持續(xù)推動娛樂交互體驗的全面升級,融合品質內容共同引領泛娛樂生態(tài)新趨勢。
全面解構用戶體驗需求 強化平臺行業(yè)影響力
基于對用戶需求的精準把握,愛奇藝不斷以優(yōu)質內容聚合用戶,持續(xù)提升用戶黏性。報告顯示,被調查者中31.8%的人選擇愛奇藝,24.5%的人選擇使用騰訊視頻,21.7%的人使用優(yōu)酷。可見,愛奇藝已經成為選擇觀看視頻的網站首選。而在用戶黏性上,報告顯示,用戶平均每天觀看視頻為2小時左右,花1-3小時觀看視頻的用戶占比達53%。在內容方面,生活美食、娛樂、脫口秀和電視劇、電影成為人們最為關注的五大視頻內容;相比2016年,生活美食、脫口秀成為人們新的關注內容。而在互動方面,90后參與互動的積極性和頻率更高,28-32歲的人最喜歡點贊,互動趨向年輕化。
根據(jù)報告顯示,在高新技術的接受度上,盡管看電視依然是多數(shù)人的觀看習慣,VR、彈幕也正在成為觀眾感知世界的全新觀看方式,受訪者中三分之一左右的人接觸過VR體驗和全景看展。在最后的主題沙龍環(huán)節(jié),愛奇藝總編輯高瑾強調,愛奇藝將堅持“科技讓娛樂更有趣”的技術品牌主張,從視聽品質、智能服務、互動創(chuàng)新等方面,不斷豐富、改善用戶娛樂體驗。
作為中國在線視頻行業(yè)領軍者,愛奇藝得益于豐富的用戶體驗經驗及深厚的技術實力基因,通過對用戶行為習慣的分析,為視頻行業(yè)用戶體驗標準提供了切實可行的建議,對整個國內視頻行業(yè)發(fā)展有著明顯的借鑒意義。而憑借龐大的用戶群體以及眾多頭部內容的原始積累,愛奇藝已經達到內容與科技的高度融合,通過AI、VR等創(chuàng)新技術充實內容互動體驗,實現(xiàn)平臺從單一播放到社交互動的多元化釋放,從而拓寬娛樂生態(tài)邊界,形成開放、完整的娛樂產業(yè)布局。未來,愛奇藝還將繼續(xù)以強大的技術力打通內容與用戶服務,持續(xù)引領視頻行業(yè)內容生態(tài)的發(fā)展。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術通過融合多幀圖像的"圖結構"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術利用圖像間的不變幾何關系,結合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構聯(lián)合提出SparseLoRA技術,通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。