3月26日,網(wǎng)易新聞客戶端5.0正式上線,產(chǎn)品交互格局煥然一新。以“直觀,定制,多元,聚合”為產(chǎn)品設(shè)計理念,采用全新的架構(gòu)直觀展現(xiàn)優(yōu)質(zhì)內(nèi)容,基于興趣化閱讀打造用戶專屬閱讀節(jié)奏,為用戶提供圖文消息與視聽新聞多場景閱讀體驗,同時聚合生活服務版塊讓用戶在資訊之外獲得更多驚喜??紤]到用戶多樣化的使用場景,5.0版本延續(xù)了4.0打造用戶專屬閱讀節(jié)奏的理念,致力于滿足用戶不同情境之下的閱讀需求,成為用戶發(fā)現(xiàn)精彩世界的一扇窗口。
直觀:全新架構(gòu)直觀展現(xiàn)優(yōu)質(zhì)內(nèi)容
除了優(yōu)質(zhì)的新聞資訊,網(wǎng)易新聞客戶端個人中心、多媒體內(nèi)容、服務性板塊等在過去的一年中得到了較大的提升,已成為網(wǎng)易新聞客戶端重要的優(yōu)勢資源。為了更好的呈現(xiàn)日益成熟的優(yōu)勢資源,此次版本更新,對首頁架構(gòu)進行了優(yōu)化布局,新的信息構(gòu)架給更多優(yōu)質(zhì)內(nèi)容以直觀的展現(xiàn),并根據(jù)不同的場景對資訊內(nèi)容進行了準確的劃分,整合了新聞、閱讀、視聽、發(fā)現(xiàn)、我五大核心欄目,欄目劃分簡約聚合,旨在為用戶提供更流暢更便捷的操作體驗和更大的閱讀空間,讓用戶在碎片化的時間里快速找到自己想看的內(nèi)容。
定制:興趣化閱讀打造專屬閱讀節(jié)奏
當移動新媒體資訊千篇一律時,產(chǎn)品如何做出千人千面的體驗?改版后的訂閱平臺和推薦欄目升級整合為“閱讀”欄目,調(diào)整了推薦的定位,根據(jù)用戶閱讀習慣和興趣進行個性化推薦,另有編輯精選保證內(nèi)容質(zhì)量和優(yōu)質(zhì)賬號推薦,同時網(wǎng)友可以在媒體列表中繼續(xù)添加喜歡的賬號。在海量的信息中為用戶推薦他們最感興趣的內(nèi)容,把握用戶的移動閱讀節(jié)奏,營造一種慢閱讀的氛圍,與新聞TAB的時效性和緊張感形成互補,滿足用戶不同層次的新聞閱讀需求。
多元:圖文消息與視聽新聞多場景閱讀體驗
傳統(tǒng)的圖文閱讀體驗在5.0版本中得到了進一步的提升,升級后的“新聞”欄目,持續(xù)為受眾提供最新最快的熱點新聞和編輯篩選的精品閱讀,并對直播、跟貼等進行欄目化運營,同時還將搜索、夜間等常用功能布局在首頁展示,方便用戶快速使用新聞閱讀基礎(chǔ)功能。在此基礎(chǔ)上,5.0版本推出“視聽”欄目,包括“視頻”和“電臺”兩個板塊,主打精彩的原創(chuàng)電臺和最新最快的短視頻新聞,接口位置更優(yōu),視聽體驗更流暢,突出看(視頻)新聞、聽(音頻)新聞的不同使用場景,采用多樣化的媒介表現(xiàn)形式,并在多媒體之上增加了交互性,打破了單一的新聞閱讀場景,給用戶帶來全方位的資訊閱讀新體驗。
聚合:多樣化生活服務發(fā)現(xiàn)更多驚喜
原本入口較深的活動廣場、應用中心、游戲中心、有態(tài)度俱樂部等版塊被安排在一級入口“發(fā)現(xiàn)”欄目中,獲得了更多位置上的優(yōu)勢,更好的為用戶提供趣味性的娛樂活動和多樣化的增值服務,實現(xiàn)網(wǎng)易新聞客戶端在商業(yè)化和用戶關(guān)懷上的雙重功能。同時,彩票、公益、身邊服務等功能的入口也被規(guī)整到“發(fā)現(xiàn)”欄目,用戶的消費需求在該欄目有了集中性的出口。個人主頁則被升級為“我”欄目,該欄目匯集用戶的個人數(shù)據(jù)和專屬服務,建立以金幣為基礎(chǔ)的用戶個人體系,以金幣激勵用戶、以任務引導用戶。通過金幣和可視化的數(shù)據(jù)激勵用戶閱讀更多新聞的同時,打通支付環(huán)節(jié),引導用戶嘗試更多專屬的個人服務。
此次新版本架構(gòu)清晰,交互體驗流暢便捷,富媒體內(nèi)容更加豐富,針對用戶不同的閱讀層次和不同的閱讀場景,滿足用戶多維度的資訊閱讀需求,成為用戶看世界的窗口,并在此基礎(chǔ)上加大用戶關(guān)懷的范圍和力度,持續(xù)為用戶提供愉悅的資訊閱讀體驗。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠?qū)碗s指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡技術(shù),通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領(lǐng)域帶來了效率和精度的雙重突破。