2016年2月12日,中國領(lǐng)先的中文搜索引擎百度公司(NASDAQ:BIDU)于北京宣布,其董事會(huì)最近收到了來自百度董事長兼首席執(zhí)行官李彥宏和愛奇藝首席執(zhí)行官龔宇的非約束性提議。該提議指出將在愛奇藝全部28億美金估值(不含現(xiàn)金和債務(wù))的基礎(chǔ)上,收購百度持有的愛奇藝80.5%(在轉(zhuǎn)換和充分?jǐn)偙〉幕A(chǔ)上計(jì)算)的全部已發(fā)行股份。基于該非約束性提議,雙方將在完成交易后進(jìn)一步簽訂業(yè)務(wù)合作協(xié)議,加強(qiáng)戰(zhàn)略合作。
作為目前中國視頻行業(yè)的領(lǐng)軍企業(yè),愛奇藝對(duì)于百度戰(zhàn)略意義重大。愛奇藝原名奇藝,2010年4月22日正式上線。2011年8月及12月,百度耗資4500萬美元認(rèn)購奇藝B輪優(yōu)先股,并于2012年11月3日,收購原愛奇藝第二大股東普羅維登斯所持股份,成為其單一最大股東。2013年,百度斥資3.7億美元收購PPS,實(shí)現(xiàn)PPS與愛奇藝的合并,之后在自制劇,產(chǎn)品建設(shè),獨(dú)播等很多領(lǐng)域動(dòng)作頻繁。2014年11月19日,百度曾以開放心態(tài)為愛奇藝引入小米投資,同時(shí)追加對(duì)愛奇藝的3億美元投資,加強(qiáng)視頻生態(tài)布局。
在線視頻對(duì)百度來說是一個(gè)具有巨大潛力的垂直領(lǐng)域,百度不僅將愛奇藝的內(nèi)容無縫地整合到搜索和移動(dòng)服務(wù)中,更借由愛奇藝強(qiáng)化了其在移動(dòng)視頻領(lǐng)域的競爭力。據(jù)悉,2015年12月1日愛奇藝VIP會(huì)員數(shù)已正式突破1000萬,這距愛奇藝6月16日宣布VIP會(huì)員數(shù)突破500萬大關(guān)不到半年。2015年,愛奇藝推出《盜墓筆記》會(huì)員全集搶先看和《蜀山戰(zhàn)紀(jì)》會(huì)員獨(dú)享模式,其中自制網(wǎng)劇《盜墓筆記》為愛奇藝帶來了200萬的付費(fèi)用戶。另據(jù)艾瑞MUT數(shù)據(jù)顯示,2015年2月愛奇藝用戶觀看總時(shí)長超越優(yōu)酷土豆后優(yōu)勢不斷鞏固,2015年12月,愛奇藝月度觀看時(shí)長達(dá)20.4億小時(shí),相較2015年1月增長54.8%,領(lǐng)先第二名優(yōu)酷土豆達(dá)70%,占據(jù)最大市場份額的同時(shí),也建立起一定的行業(yè)壁壘。2016年愛奇藝預(yù)計(jì)將投放20部自制大劇,這將給愛奇藝帶來更多流量和收入。
對(duì)于此次收購意向,百度宣布董事會(huì)已成立由三名獨(dú)立董事Messrs. Greg Penner, Brent Callinicos and James Ding組成的特別委員會(huì)評(píng)估該項(xiàng)交易。
此前,在首批戰(zhàn)略新興板的上市名單中便包括身處國內(nèi)視頻網(wǎng)站第一梯隊(duì)的愛奇藝。對(duì)于此次收購意向的披露,有業(yè)內(nèi)人士指出,這將有助于百度與愛奇藝進(jìn)一步增強(qiáng)戰(zhàn)略合作,并將為愛奇藝引入更多戰(zhàn)略投資者,增強(qiáng)其現(xiàn)金流和造血能力,加快其上市的節(jié)奏。同時(shí),一旦意向達(dá)成愛奇藝相關(guān)的內(nèi)容成本支出將被剔除出百度財(cái)務(wù)報(bào)表,有利于百度利潤的增長。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。