3月26日,網(wǎng)易新聞客戶端5.0版本全新上線,對信息架構(gòu)進(jìn)行了優(yōu)化布局,新的信息構(gòu)架給更多優(yōu)質(zhì)內(nèi)容以直觀的展現(xiàn),并根據(jù)不同的場景對資訊內(nèi)容進(jìn)行了準(zhǔn)確的劃分。
目前底部導(dǎo)航整合了新聞、閱讀、視聽、發(fā)現(xiàn)、我五大核心欄目。在設(shè)計(jì)上減少入口,幫助用戶更快地找到自己所需內(nèi)容,在功能上從不斷增加變化到不斷專精,將最重要最常用的圖標(biāo)放在底部。欄目劃分簡約聚合,旨在為用戶提供更流暢便捷的操作體驗(yàn)和更大的閱讀空間。
升級后的“新聞”欄目,持續(xù)為受眾提供最新最快的熱點(diǎn)新聞和編輯篩選的精品閱讀,同時(shí)對直播、跟貼等進(jìn)行欄目化運(yùn)營。此前的訂閱和推薦欄目升級整合為“閱讀”欄目,調(diào)整了推薦的定位,根據(jù)用戶的興趣,基于訂閱及更多內(nèi)容源為用戶推薦感興趣的內(nèi)容,激勵(lì)用戶進(jìn)行社會化傳播,營造一種慢閱讀的氛圍,與新聞TAB的時(shí)效性和緊張感形成互補(bǔ),滿足用戶不同層次的新聞閱讀需求。
同時(shí),順應(yīng)4G網(wǎng)絡(luò)的發(fā)展趨勢, 網(wǎng)易新聞客戶端5.0版本在傳統(tǒng)的圖文新聞基礎(chǔ)上,推出“視聽”欄目,包括“視頻”和“電臺”兩個(gè)板塊,主打精彩的原創(chuàng)電臺和最新最快的短視頻新聞,接口位置更優(yōu),視聽體驗(yàn)更流暢,突出看(視頻)新聞、聽(音頻)新聞的不同使用場景,采用多樣化的媒介表現(xiàn)形式,并在多媒體之上增加了交互性,打破了單一的新聞閱讀場景,給用戶帶來全方位的資訊閱讀新體驗(yàn)。
此外,原本入口較深的活動(dòng)廣場、有態(tài)度俱樂部等版塊被安排在一級入口“發(fā)現(xiàn)”欄目中,獲得更多位置上的優(yōu)勢,為用戶提供更多趣味性的娛樂活動(dòng)和多樣化的增值服務(wù)。個(gè)人主頁則被升級為“我”欄目,該欄目匯集用戶的個(gè)人數(shù)據(jù)和專屬服務(wù),建立以金幣為基礎(chǔ)的用戶個(gè)人體系,以金幣激勵(lì)用戶、以任務(wù)引導(dǎo)用戶。通過金幣和可視化的數(shù)據(jù)激勵(lì)用戶閱讀更多新聞的同時(shí),打通支付環(huán)節(jié),引導(dǎo)用戶嘗試更多專屬的個(gè)人服務(wù)。
網(wǎng)易新聞客戶端5.0上線,旨在針對用戶不同的閱讀層次和不同的閱讀場景,滿足用戶多維度的資訊獲取需求,成為用戶看世界的窗口,并在此基礎(chǔ)上加大用戶關(guān)懷的范圍和力度,持續(xù)為用戶提供愉悅的資訊閱讀體驗(yàn)。以個(gè)性化、社交化服務(wù)于新聞,以本地化、活動(dòng)進(jìn)行商業(yè)化探索。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。