樂(lè)視體育今日正式宣布完成首輪8億元融資,估值28億元。
樂(lè)視體育本輪融資經(jīng)歷A和A+兩個(gè)階段,A輪由萬(wàn)達(dá)投資領(lǐng)投,A+輪由云鋒基金領(lǐng)投,東方匯富和普思投資等7家機(jī)構(gòu)和個(gè)人跟投,易凱資本擔(dān)任了此次融資的獨(dú)家財(cái)務(wù)顧問(wèn)。
經(jīng)過(guò)本輪融資后,樂(lè)視體育原控股股東樂(lè)視網(wǎng)(300104)的股份降到10%左右,樂(lè)樂(lè)互動(dòng)(同一實(shí)際控制人)變?yōu)榭毓晒蓶|。
萬(wàn)達(dá)投資首席風(fēng)險(xiǎn)官劉安表示:“萬(wàn)達(dá)投資對(duì)樂(lè)視體育基于賽事運(yùn)營(yíng)+內(nèi)容平臺(tái)+智能化+增值服務(wù)的體育生態(tài)模式非??春茫栽诤芏痰臅r(shí)間內(nèi)就確定了投資。”
普思投資董事長(zhǎng)、萬(wàn)達(dá)集團(tuán)董事王思聰表示:“這是普思投資第一次參與體育行業(yè)的投資,除了對(duì)樂(lè)視體育在體育產(chǎn)業(yè)的拓展方面非常有信心以外,我對(duì)它的互聯(lián)網(wǎng)思維和新媒體營(yíng)銷都非常欣賞。”
據(jù)介紹,樂(lè)視體育的版權(quán)擁有量上遠(yuǎn)超競(jìng)爭(zhēng)對(duì)手,共擁有17類運(yùn)動(dòng)項(xiàng)目,121項(xiàng)比賽,實(shí)現(xiàn)平均每年4000場(chǎng)的賽事直播;而且還擁有競(jìng)品所不具備的強(qiáng)大制播能力,能夠?qū)崿F(xiàn)足球、籃球、網(wǎng)球、高爾夫、馬拉松等不同項(xiàng)目的制作播出。
不久前,樂(lè)視體育發(fā)布了超級(jí)自行車計(jì)劃,其運(yùn)動(dòng)相機(jī)的發(fā)展計(jì)劃也在發(fā)布會(huì)上首次披露。
增值服務(wù)板塊,體育商城、體育培訓(xùn)、體育游戲、體育彩票等基于體育垂直業(yè)務(wù)領(lǐng)域的O2O和付費(fèi)業(yè)務(wù)也首次進(jìn)行了全方位的闡述。
去年底,國(guó)務(wù)院46號(hào)文指出,到2025年基本建立布局合理、功能完善、門類齊全的體育產(chǎn)業(yè)體系,體育產(chǎn)業(yè)總規(guī)模超過(guò)5萬(wàn)億元。分析認(rèn)為,這將極大推動(dòng)互聯(lián)網(wǎng)體育產(chǎn)業(yè)的發(fā)展。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。