CNET科技資訊網(wǎng) 4月27日 北京消息(文/周雅):距里約奧運(yùn)會(huì)開幕倒計(jì)時(shí)100天的今天,網(wǎng)易攜手可口可樂純悅在北京啟動(dòng)2016“一路·純悅走向里約”奧運(yùn)項(xiàng)目,采用公益激勵(lì)方式,打造奧運(yùn)行走狂歡。
用戶輕觸網(wǎng)易PC端及網(wǎng)易新聞客戶端計(jì)步器入口,或掃描純悅瓶身的二維碼,即加入走向里約的行列,當(dāng)里程累計(jì)至2億公里時(shí),純悅將向缺水地區(qū)兒童捐贈(zèng)100000瓶純凈水。同時(shí),總排行第一名更能親赴奧運(yùn),走向里約!最后,活動(dòng)還將選取參與者的激情宣言,點(diǎn)亮倫敦、東京等城市地標(biāo),向全世界展示行走的力量。
網(wǎng)易方面認(rèn)為,全民健身時(shí)代,行走成為中國人最主流的運(yùn)動(dòng)方式;在運(yùn)動(dòng)領(lǐng)域以外,行走正逐漸被賦予更多的附加價(jià)值,公益便是其中之一。
對(duì)于此次奧運(yùn)+行走+公益的組合,網(wǎng)易傳媒副總編輯田華表示:“奧運(yùn)對(duì)于每一個(gè)普通人來說,不再只是坐在電視機(jī)前看比賽,更重要的是激勵(lì)大家投身運(yùn)動(dòng),感受運(yùn)動(dòng)對(duì)生活的改變。這正是我們策劃此次活動(dòng)的初衷。”
網(wǎng)易傳媒副總編輯田華
網(wǎng)易傳媒常務(wù)副總編輯曾光明
網(wǎng)易傳媒常務(wù)副總編輯曾光明強(qiáng)調(diào)“一路·純悅走向里約”項(xiàng)目切合“身邊總有競(jìng)技場(chǎng)”的運(yùn)動(dòng)理念,期待項(xiàng)目為熱愛運(yùn)動(dòng)、關(guān)注奧運(yùn)的群體提供互動(dòng)參與、投身公益和運(yùn)動(dòng)社交的機(jī)會(huì)。
2016年4月至8月里約奧運(yùn)會(huì)期間,網(wǎng)易傳媒以網(wǎng)易新聞客戶端為代表的移動(dòng)平臺(tái),將全面覆蓋奧運(yùn)生活場(chǎng)景,采用創(chuàng)新形式和豐富玩法聯(lián)動(dòng)數(shù)十個(gè)趣味互動(dòng)游戲,開啟指尖奧運(yùn)。
在原創(chuàng)內(nèi)容策劃上,網(wǎng)易將采用多維度視角吸引網(wǎng)友:“奧運(yùn)公開課”云集中國體育人物,講述奧運(yùn)帶給他們的人生啟示以及退役后的生活方向;奧運(yùn)之家直播間在里約前方為奧運(yùn)冠軍打造家庭體驗(yàn);里約大作戰(zhàn)則令受眾由“看客”變?yōu)?ldquo;參與者”,打造大型虛擬互動(dòng)競(jìng)技真人秀;除此之外還有“冠軍面對(duì)面”、“奧運(yùn)私房菜”等獨(dú)特內(nèi)容。
值得一提的是,網(wǎng)易為2016年里約奧運(yùn)會(huì)配備頂級(jí)團(tuán)隊(duì),運(yùn)用360度全景、VR設(shè)備等設(shè)備在前方全時(shí)直播,17天全程跟蹤賽事熱點(diǎn)。
中國男子田徑隊(duì)運(yùn)動(dòng)員張培萌(中間)與嘉賓
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。