12月7日,“2017年度中國觀看體驗(yàn)報(bào)告”發(fā)布會在京舉行,愛奇藝高級副總裁耿聃皓、總編輯高瑾、數(shù)據(jù)研究院院長葛承志、暨南大學(xué)生活方式研究院院長費(fèi)勇等多位企業(yè)高管、行業(yè)研究專家與會。會上,愛奇藝科技頻道聯(lián)合暨南大學(xué)生活方式研究院共同發(fā)布“2017年度中國觀看體驗(yàn)報(bào)告”,報(bào)告從用戶角度對視頻觀看體驗(yàn)進(jìn)行權(quán)威表述,深入分析影響觀看體驗(yàn)的主要因素。報(bào)告中指出,當(dāng)下國內(nèi)消費(fèi)結(jié)構(gòu)持續(xù)更新升級,單一的功能性產(chǎn)品已經(jīng)無法滿足市場需要,只有不斷探索、升級多樣化用戶體驗(yàn)?zāi)J剑拍苷嬲嵘脩羝焚|(zhì)娛樂生活,滿足人們?nèi)找嬖鲩L的娛樂需求。
此次“2017年度中國觀看體驗(yàn)報(bào)告”的發(fā)布是愛奇藝作為內(nèi)容平臺聯(lián)合專業(yè)學(xué)術(shù)研究力量,為用戶能夠擁有更完善的視頻觀看服務(wù)體驗(yàn)提供專業(yè)理論依據(jù)與指導(dǎo)。此外,發(fā)布會還舉辦了“觀看體驗(yàn)&生活方式”主題沙龍活動(dòng),與會嘉賓圍繞“觀看體驗(yàn)與泛娛樂營銷”“產(chǎn)品創(chuàng)新與觀看體驗(yàn)變革”“藝術(shù)、科技與商業(yè)空間”三個(gè)話題展開深入探討。
深化升級觀看體驗(yàn)服務(wù) 以科技創(chuàng)新引領(lǐng)娛樂新趨勢
伴隨視頻平臺大數(shù)據(jù)、科技力量的強(qiáng)化,基于用戶行為分析與用戶需求挖掘的用戶體驗(yàn)成為各大平臺關(guān)注的焦點(diǎn)。發(fā)布會上,愛奇藝高級副總裁耿聃皓發(fā)表“科技創(chuàng)新引領(lǐng)娛樂新趨勢”的主題演講。耿聃皓表示,作為一家以科技創(chuàng)新為驅(qū)動(dòng)的偉大娛樂公司,愛奇藝已經(jīng)成功布局影視、音樂、粉絲、泛二次元、生活方式等娛樂生態(tài)內(nèi)容,同時(shí)擁有最懂娛樂的人才和最懂娛樂的“機(jī)器”。其中最懂娛樂的機(jī)器是AI。AI技術(shù)的應(yīng)用將促進(jìn)愛奇藝對于內(nèi)容、用戶和合作伙伴多方需求的深刻理解,不斷催化用戶娛樂體驗(yàn)的升級,進(jìn)而實(shí)現(xiàn)整個(gè)娛樂產(chǎn)業(yè)進(jìn)步。2017年愛奇藝聯(lián)合百度共同發(fā)布“百愛計(jì)劃”,百度AI技術(shù)、用戶數(shù)據(jù)、營銷平臺、媒體資源將與愛奇藝超級娛樂內(nèi)容全面整合,打破創(chuàng)新技術(shù)與優(yōu)質(zhì)內(nèi)容的界限,專注于用戶觀看體驗(yàn)。耿聃皓強(qiáng)調(diào),愛奇藝將以科技創(chuàng)新引領(lǐng)娛樂新趨勢,最終建立起一個(gè)惠及所有用戶的娛樂王國。
如今,隨著視頻娛樂內(nèi)容的多元化發(fā)展,技術(shù)創(chuàng)新成為構(gòu)建視頻內(nèi)容生態(tài)的重要支撐。對此,愛奇藝數(shù)據(jù)研究院院長葛承志從在線視頻發(fā)展趨勢以及愛奇藝用戶畫像、數(shù)據(jù)角度,深入洞察視頻行業(yè)年輕化、移動(dòng)化、娛樂化的發(fā)展態(tài)勢。葛承志表示,作為視頻行業(yè)領(lǐng)導(dǎo)者,愛奇藝憑借對于用戶畫像精準(zhǔn)分析,在PC端、移動(dòng)端始終保持行業(yè)領(lǐng)先優(yōu)勢。根據(jù)第三方機(jī)構(gòu)艾瑞咨詢10月份數(shù)據(jù)顯示,愛奇藝PC端月度總有效瀏覽時(shí)間、月度覆蓋人數(shù)以及移動(dòng)端月度總有效使用時(shí)間、月度獨(dú)立設(shè)備數(shù)四大核心數(shù)據(jù)均保持行業(yè)第一的位置。此外,愛奇藝通過強(qiáng)大后臺數(shù)據(jù)技術(shù)采集用戶畫像,深入分析用戶需求,為億萬愛奇藝用戶推送優(yōu)質(zhì)內(nèi)容。伴隨“2017年度中國觀看體驗(yàn)報(bào)告”的發(fā)布,愛奇藝希望借助專業(yè)學(xué)術(shù)力量,在未來為用戶提供更加完善的觀看體驗(yàn)服務(wù)。從技術(shù)創(chuàng)新突破到用戶需求精確把控,愛奇藝始終以用戶為中心,持續(xù)推動(dòng)娛樂交互體驗(yàn)的全面升級,融合品質(zhì)內(nèi)容共同引領(lǐng)泛娛樂生態(tài)新趨勢。
全面解構(gòu)用戶體驗(yàn)需求 強(qiáng)化平臺行業(yè)影響力
基于對用戶需求的精準(zhǔn)把握,愛奇藝不斷以優(yōu)質(zhì)內(nèi)容聚合用戶,持續(xù)提升用戶黏性。報(bào)告顯示,被調(diào)查者中31.8%的人選擇愛奇藝,24.5%的人選擇使用騰訊視頻,21.7%的人使用優(yōu)酷。可見,愛奇藝已經(jīng)成為選擇觀看視頻的網(wǎng)站首選。而在用戶黏性上,報(bào)告顯示,用戶平均每天觀看視頻為2小時(shí)左右,花1-3小時(shí)觀看視頻的用戶占比達(dá)53%。在內(nèi)容方面,生活美食、娛樂、脫口秀和電視劇、電影成為人們最為關(guān)注的五大視頻內(nèi)容;相比2016年,生活美食、脫口秀成為人們新的關(guān)注內(nèi)容。而在互動(dòng)方面,90后參與互動(dòng)的積極性和頻率更高,28-32歲的人最喜歡點(diǎn)贊,互動(dòng)趨向年輕化。
根據(jù)報(bào)告顯示,在高新技術(shù)的接受度上,盡管看電視依然是多數(shù)人的觀看習(xí)慣,VR、彈幕也正在成為觀眾感知世界的全新觀看方式,受訪者中三分之一左右的人接觸過VR體驗(yàn)和全景看展。在最后的主題沙龍環(huán)節(jié),愛奇藝總編輯高瑾強(qiáng)調(diào),愛奇藝將堅(jiān)持“科技讓娛樂更有趣”的技術(shù)品牌主張,從視聽品質(zhì)、智能服務(wù)、互動(dòng)創(chuàng)新等方面,不斷豐富、改善用戶娛樂體驗(yàn)。
作為中國在線視頻行業(yè)領(lǐng)軍者,愛奇藝得益于豐富的用戶體驗(yàn)經(jīng)驗(yàn)及深厚的技術(shù)實(shí)力基因,通過對用戶行為習(xí)慣的分析,為視頻行業(yè)用戶體驗(yàn)標(biāo)準(zhǔn)提供了切實(shí)可行的建議,對整個(gè)國內(nèi)視頻行業(yè)發(fā)展有著明顯的借鑒意義。而憑借龐大的用戶群體以及眾多頭部內(nèi)容的原始積累,愛奇藝已經(jīng)達(dá)到內(nèi)容與科技的高度融合,通過AI、VR等創(chuàng)新技術(shù)充實(shí)內(nèi)容互動(dòng)體驗(yàn),實(shí)現(xiàn)平臺從單一播放到社交互動(dòng)的多元化釋放,從而拓寬娛樂生態(tài)邊界,形成開放、完整的娛樂產(chǎn)業(yè)布局。未來,愛奇藝還將繼續(xù)以強(qiáng)大的技術(shù)力打通內(nèi)容與用戶服務(wù),持續(xù)引領(lǐng)視頻行業(yè)內(nèi)容生態(tài)的發(fā)展。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。