“我用視頻告訴你”第二屆搜狐視頻出品人大會(huì)定于4月22日在北京召開(kāi)。作為專(zhuān)業(yè)提供視頻自媒體PGC交流推介的盛會(huì),搜狐視頻出品人大會(huì)關(guān)注原創(chuàng)影像,表彰視頻自媒體內(nèi)容。出品人大會(huì)現(xiàn)場(chǎng)將通過(guò)互動(dòng)游戲、展示路演、高峰論壇和頒獎(jiǎng)典禮等多種方式,推動(dòng)和引領(lǐng)視頻自媒體的網(wǎng)生內(nèi)容盛世。
視頻自媒體引爆現(xiàn)場(chǎng) 探索網(wǎng)生內(nèi)容未來(lái)
4月22日下午,搜狐視頻高層、自媒體PGC領(lǐng)軍人物將匯聚一堂,針對(duì)“搜狐視頻構(gòu)建完整的PGC生態(tài)系統(tǒng)“展開(kāi)深入討論。搜狐視頻出品人論壇兩大議題“揭開(kāi)知識(shí)影像化神秘面紗”、“泛娛樂(lè)產(chǎn)業(yè)的發(fā)展現(xiàn)狀”從專(zhuān)業(yè)、權(quán)威的角度探討網(wǎng)生內(nèi)容發(fā)展趨勢(shì),分享知識(shí)影像化、泛娛樂(lè)產(chǎn)業(yè)的未來(lái)態(tài)勢(shì)。
搜狐視頻出品人廣場(chǎng)作為本次出品人大會(huì)的重要組成部分,有40余家視頻自媒體出品機(jī)構(gòu)設(shè)立展臺(tái),各自展區(qū)內(nèi)的屏幕將不間斷播出視頻花絮,同時(shí)現(xiàn)場(chǎng)LED大屏幕也將循環(huán)播放自媒體PGC精彩內(nèi)容。此外,PGC機(jī)構(gòu)更是準(zhǔn)備了多項(xiàng)游戲,好玩的互動(dòng),給力的獎(jiǎng)品,打造火爆現(xiàn)場(chǎng)。活動(dòng)當(dāng)天,自媒體PGC、搜狐視頻主辦方、客戶、粉絲、媒體參與人數(shù)將達(dá)到上千人規(guī)模。
頒獎(jiǎng)典禮10項(xiàng)大獎(jiǎng)打造權(quán)威平臺(tái)自媒體精準(zhǔn)發(fā)力突破
當(dāng)晚,搜狐視頻出品人頒獎(jiǎng)典禮將決出9+1個(gè)重量級(jí)獎(jiǎng)項(xiàng),包含搞笑、科技、汽車(chē)、美妝、游戲、親子、旅游、主播、星座及自媒體創(chuàng)新獎(jiǎng)。各路金牌自媒體出品人、行業(yè)領(lǐng)袖及明星網(wǎng)紅將見(jiàn)證榮耀誕生。
搜狐視頻力求引領(lǐng)網(wǎng)生內(nèi)容時(shí)代,成為專(zhuān)業(yè)權(quán)威的視頻自媒體平臺(tái),關(guān)注垂直領(lǐng)域,聚焦專(zhuān)業(yè)內(nèi)容,重點(diǎn)突破娛樂(lè)、知識(shí)、民生等領(lǐng)域,擁抱PGC“知識(shí)影像化”時(shí)代。搜狐視頻堅(jiān)持戰(zhàn)略投入扶植原創(chuàng)自媒體出品人,大規(guī)模投資視頻自媒體PGC打造優(yōu)質(zhì)網(wǎng)生內(nèi)容。第二屆搜狐視頻出品人大會(huì)以“我是搜狐出品人,我用視頻告訴你”為主題的更多重磅內(nèi)容將于4月22日揭曉。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。