從4月3日起,一檔全新的視頻新聞欄目——《鏡像》出現在網易新聞客戶端上。《鏡像》采用影像視頻記錄的方式,在5-8分鐘的時間里對新聞當事人和群體進行深度的報道和解讀,讓用戶通過視頻了解更多新聞背后的故事。目前《鏡像》的播出頻率是每周一期,在每周一上午8:00-10:00之間與網易新聞客戶端的用戶見面。
(欄目截圖)
《鏡像》是首檔在新聞客戶端中播出的視頻類新聞欄目,在內容設計和篇幅長度上都與客戶端中以往的新聞視頻有很大不同。首先是在內容上,《鏡像》不再僅僅是對某個新聞事件的報道,而是針對熱點人物與話題,進行跟蹤拍攝采訪,以短紀錄片的形式介入事件。據介紹,《鏡像》的選題包括:對熱點新聞事件當事人的跟蹤和深入報道,對關注度尚不高的冷新聞進行深度再挖掘,以及對當前有爭議性或話題性的人物進行深入追蹤。欄目第一期,關注了罕見病人群PKU患者的生存情況,獲得了網友的積極反饋。
因為《鏡像》的內容定位于紀錄片形式的深入報道,所以長度也超過了一般的視頻新聞。這種變化既是得益于4G網絡及Wifi的普及,讓用戶有條件觀看有一定時長的視頻內容;另外也是順應在移動互聯時代,用戶渴望移動設備上的資訊內容更加豐富,且形式更加多樣的需求。
前不久,網易新聞客戶端iOS版發(fā)布了5.0更新。新版本提升了視聽新聞的入口層級,同時網易內部也對外表示會不斷加強多媒體新聞內容的創(chuàng)新,因此《鏡像》也可以看作是網易新聞客戶端在視頻內容創(chuàng)新上的一次嘗試。如果說以往的視頻新聞只是文字和圖片新聞的補充,那么在4G時代,視頻新聞很可能從此擁有自己的“獨立王國”,成為新聞客戶端中與圖文內容平起平坐的主要資訊來源之一。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現AI根據復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質量,在多項測試中超越包括Sora在內的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質量樣本的訓練數據集和MM-AlignBench評測基準,通過創(chuàng)新的數據生成和質量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經網絡技術,通過學習40年歷史數據掌握天氣變化規(guī)律,在極端天氣預測方面表現卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。