3月31日晚,三星在北京798藝術(shù)區(qū)舉行了新聞發(fā)布會(huì)。三月初在巴塞羅那發(fā)布的Galaxy S6和曲面屏的Galaxy S6 edge將正式進(jìn)入中國(guó)市場(chǎng)。一直與三星保持深度合作的網(wǎng)易新聞客戶端,繼三星GALAXY Note 4、S5和GALAXY Gear系列智能手表后,為此次上市的Galaxy S6/ S6 edge分別單獨(dú)定制開發(fā)獨(dú)家版本,結(jié)合新機(jī)型的不同特點(diǎn),為用戶帶來(lái)全新的現(xiàn)代化閱讀體驗(yàn)。
此次是網(wǎng)易新聞客戶端與三星的深度定制合作,定制版入駐Galaxy S6 /Galaxy S6 edge“獨(dú)家定制”專區(qū)。網(wǎng)易新聞客戶端特別曲面版尤其搶眼,讓S6 edge用戶搶先感受雙屏?xí)r代,暢享雙新聞節(jié)奏,打造獨(dú)一無(wú)二的新聞雙屏?xí)r代。
發(fā)布會(huì)現(xiàn)場(chǎng)
三星Galaxy S6 獨(dú)家定制專區(qū)
多窗口無(wú)縫切換,體驗(yàn)更隨心
網(wǎng)易新聞客戶端三星 Galaxy S6 定制版支持多窗口多任務(wù)操作,無(wú)需關(guān)閉窗口或打開新的頁(yè)面,即可在網(wǎng)易新聞與其他應(yīng)用程序之間無(wú)縫切換,用戶可以同時(shí)處理兩個(gè)任務(wù),還可以直接將文本、圖片等內(nèi)容拖拽到另一個(gè)窗口,可大幅提高操作效率,用戶體驗(yàn)更加隨心。
雙曲面 雙新聞
號(hào)稱“世界上第一款雙曲面?zhèn)绕猎O(shè)計(jì)”的最新旗艦手機(jī)Galaxy S6 Edge在發(fā)布會(huì)上收獲了最多的注意力。曲面屏引領(lǐng)手機(jī)差異化風(fēng)潮,網(wǎng)易新聞結(jié)合雙曲面時(shí)代節(jié)奏,創(chuàng)新設(shè)計(jì)edge版本,根據(jù)當(dāng)下熱點(diǎn)事件和用戶閱讀習(xí)慣,定向有節(jié)奏地推送相關(guān)新聞消息,將用戶最感興趣的新聞第一時(shí)間(推送內(nèi)容注明該信息發(fā)生時(shí)間點(diǎn)、跟貼量)告知,用戶輕松點(diǎn)擊可瀏覽全文,以及以熱點(diǎn)信息為主導(dǎo)的專題信息,激發(fā)用戶在網(wǎng)易新聞客戶端進(jìn)行深度閱讀和深度思考。
Push內(nèi)容實(shí)時(shí)更新,滿足每位讀者緊隨時(shí)代節(jié)奏側(cè)屏小時(shí)代同享新鮮資訊盛宴。便捷式推送服務(wù),讓用戶0負(fù)擔(dān)體驗(yàn),無(wú)需任何操作,即可實(shí)時(shí)了解新聞事件,滿足用戶隨時(shí)隨地盡覽天下事的資訊需求。
坐擁近3億用戶的網(wǎng)易新聞客戶端,無(wú)論在用戶體驗(yàn)、用戶基數(shù)還是用戶精細(xì)化運(yùn)營(yíng)上,都始終走在行業(yè)前列,與三星等各大廠商的合作將持續(xù)、深度地進(jìn)行。作為國(guó)內(nèi)移動(dòng)資訊閱讀的定義者,網(wǎng)易新聞客戶端一直致力于滿足用戶各種使用場(chǎng)景下的資訊需求,嘗試更多可能,以帶給用戶更優(yōu)質(zhì)的閱讀體驗(yàn)。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。