CNET科技資訊網(wǎng) 2月23日 北京消息:2月21日,愛奇藝宣布完成一筆15.3億美元的可轉(zhuǎn)債認(rèn)購(gòu)。主要認(rèn)購(gòu)方為百度、高瓴資本、博裕資本、潤(rùn)良泰基金、IDG資本、光際資本、紅杉資本等。其中百度認(rèn)購(gòu)3億美元。
根據(jù)最新的第三方數(shù)據(jù)艾瑞顯示,截至2016年12月,愛奇藝移動(dòng)視頻月活設(shè)備達(dá)到4.81億臺(tái),月使用時(shí)長(zhǎng)達(dá)55.79億小時(shí),相比1月分別增長(zhǎng)20.08%和27.18%。此輪認(rèn)購(gòu),表明愛奇藝以內(nèi)容IP為核心的娛樂生態(tài),及大蘋果樹模型的成型,已獲得資本市場(chǎng)的認(rèn)可。
百度董事長(zhǎng)兼CEO李彥宏表示:“愛奇藝一直是百度的優(yōu)質(zhì)資產(chǎn),也是百度內(nèi)容生態(tài)建設(shè)的重要部分。未來百度將一如既往的支持愛奇藝的發(fā)展,用人工智能技術(shù)為愛奇藝賦能。”
愛奇藝創(chuàng)始人、CEO龔宇表示:“過去多年,百度在資本和流量上給予了愛奇藝很大的支持,未來百度的人工智能技術(shù)和內(nèi)容生態(tài)建設(shè),會(huì)為愛奇藝提供更好的土壤,幫助我們成為一家互聯(lián)網(wǎng)驅(qū)動(dòng)的偉大的娛樂公司,特別是關(guān)注于內(nèi)容生態(tài)開發(fā)和內(nèi)容收費(fèi)業(yè)務(wù)。”
近年來,愛奇藝一直圍繞內(nèi)容IP為核心的生態(tài)戰(zhàn)略,以技術(shù)、內(nèi)容和VIP會(huì)員等業(yè)務(wù)組成了一套互聯(lián)網(wǎng)娛樂生態(tài)之路。貢獻(xiàn)了諸多原創(chuàng)現(xiàn)象級(jí)內(nèi)容,催生了網(wǎng)絡(luò)綜藝、網(wǎng)絡(luò)劇、網(wǎng)絡(luò)大電影等互聯(lián)網(wǎng)娛樂形態(tài)的增長(zhǎng),領(lǐng)導(dǎo)了視頻付費(fèi)會(huì)員業(yè)務(wù)的發(fā)展進(jìn)程,重新定位了視頻行業(yè)模式。
未來,愛奇藝將持續(xù)推動(dòng)內(nèi)容IP生態(tài),加大投入原創(chuàng)內(nèi)容和VIP會(huì)員業(yè)務(wù)。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。