華為近日宣布,與搜狐聯(lián)合發(fā)布《移動視頻洞察報告2014Q3》。報告指出,視頻播放流暢度、流量消耗、加載速度和畫質(zhì)清晰度是影響移動視頻用戶業(yè)務(wù)體驗的最關(guān)鍵因素。4G網(wǎng)絡(luò)的部署,不僅帶來更流暢的視頻觀看體驗,也逐漸引爆了用戶的視頻觀看習(xí)慣,這就要求移動運(yùn)營商持續(xù)加大高速網(wǎng)絡(luò)覆蓋并降低資費(fèi),內(nèi)容提供商需要持續(xù)提供具有吸引力的高清晰度節(jié)目內(nèi)容,雙方共同促進(jìn)內(nèi)容分發(fā)網(wǎng)絡(luò)(CDN)向用戶側(cè)下沉,來迎接移動視頻業(yè)務(wù)的黃金時代。
隨著智能手機(jī)的迅速普及,人們對隨時隨地的多媒體訪問需求日益迫切,移動視頻需求正呈爆炸式增長。如何保障用戶流暢觀看視頻且不對移動通信網(wǎng)絡(luò)造成過重的負(fù)擔(dān),成為內(nèi)容提供商和移動網(wǎng)絡(luò)運(yùn)營商面臨的嚴(yán)峻挑戰(zhàn)。
華為與搜狐聯(lián)合創(chuàng)新實驗室針對移動視頻業(yè)務(wù),基于華為mLAB在國內(nèi)進(jìn)行的消費(fèi)者行為調(diào)研結(jié)果,并結(jié)合搜狐視頻客戶端的大量統(tǒng)計數(shù)據(jù)和運(yùn)營商現(xiàn)網(wǎng)情況,從“移動互聯(lián)網(wǎng)和移動視頻行業(yè)發(fā)展”、“移動視頻用戶行為習(xí)慣”和“移動視頻用戶體驗”三方面進(jìn)行深入分析,對移動視頻業(yè)務(wù)的現(xiàn)狀和未來趨勢進(jìn)行了總結(jié)和展望。
該報告研究結(jié)果表明,4G用戶鐘愛在線視頻,3G用戶依賴社交通訊,而瀏覽網(wǎng)頁依然是各網(wǎng)絡(luò)類型用戶的主流需求。當(dāng)前4G網(wǎng)絡(luò)下的視頻播放體驗已經(jīng)優(yōu)于WiFi和3G網(wǎng)絡(luò),包括播放成功率、加載速度和播放流暢率。同時4G用戶選擇高清視頻內(nèi)容的比例比3G用戶高20%。但是由于目前3G和4G移動網(wǎng)絡(luò)尚未完全成熟且流量資費(fèi)較高,用戶主要還是通過家庭或公共WiFi網(wǎng)絡(luò)觀看視頻。
另外不同運(yùn)營商的網(wǎng)絡(luò)基礎(chǔ)設(shè)施建設(shè)和CDN部署情況,都會影響到最終的用戶體驗。因此,一方面移動運(yùn)營商需要持續(xù)加大網(wǎng)絡(luò)覆蓋和提升網(wǎng)絡(luò)帶寬的同時,降低資費(fèi);另外一方面內(nèi)容提供商也需要繼續(xù)提供具有吸引力的高清晰度節(jié)目內(nèi)容,同時雙方共同促進(jìn)CDN向用戶側(cè)下沉,來滿足用戶隨時隨地觀看高清視頻的意愿和流暢體驗。
移動寬帶產(chǎn)業(yè)的快速發(fā)展將促進(jìn)新一輪的產(chǎn)業(yè)融合,華為希望與產(chǎn)業(yè)鏈伙伴合作,共同改善和提升用戶的移動寬帶體驗,與運(yùn)營商、視頻內(nèi)容提供者、網(wǎng)絡(luò)設(shè)備供應(yīng)商以及用戶共建和諧、共贏的生態(tài)環(huán)境。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實驗發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強(qiáng)于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。