上午,2014中國數(shù)字傳媒和閱讀產(chǎn)業(yè)創(chuàng)新大會(huì)上,中國移動(dòng)正式推出“和閱讀”品牌,并表示將加強(qiáng)內(nèi)容、4G閱讀、一省一報(bào)、行業(yè)市場、能力開放五個(gè)領(lǐng)域,持續(xù)發(fā)展手機(jī)閱讀規(guī)模。目前,中國移動(dòng)手機(jī)閱讀月訪問用戶突破1.3億,日均點(diǎn)擊量超過6億次,產(chǎn)業(yè)合作伙伴近600家。
與此同時(shí)推出的,還有“和閱讀榜中榜”,榜單頒獎(jiǎng)中,浙江省作協(xié)主席、茅盾文學(xué)獎(jiǎng)得主麥家和諾貝爾文學(xué)獎(jiǎng)得主莫言分別揭曉2013年度出版、原創(chuàng)兩大類獎(jiǎng)項(xiàng)并為獲獎(jiǎng)?wù)哳C獎(jiǎng):吳曉波的《歷代經(jīng)濟(jì)變革得失》獲年度最佳出版新書獎(jiǎng),張宏杰的《中國國民性演變歷程》獲年度最佳人文圖書獎(jiǎng),蘇童的《黃雀記》獲年度最佳出版小說獎(jiǎng);月關(guān)的《醉枕江山》獲年度最佳網(wǎng)絡(luò)文學(xué)新作獎(jiǎng)、若雪三千的《天才召喚師》獲年度最佳女生原創(chuàng)獎(jiǎng)、天蠶土豆的《大主宰》獲年度最佳網(wǎng)絡(luò)文學(xué)獎(jiǎng)。
圖:莫言頒獎(jiǎng)
此次“和閱讀榜中榜”在2014年將由中國移動(dòng)手機(jī)閱讀基地和中國音像與數(shù)字出版協(xié)會(huì)共同推出,且以上頒獎(jiǎng)嘉賓和獲獎(jiǎng)作家將共同入駐“和閱讀”名家團(tuán),參與2014年榜單的工作。
一直以來,中國移動(dòng)致力于創(chuàng)新文化傳播:2010年5月,手機(jī)閱讀正式推出商用,依托用戶規(guī)模,聯(lián)合產(chǎn)業(yè)各方,打造全新的圖書發(fā)行模式;2013年1月1日,中國移動(dòng)手機(jī)報(bào)業(yè)務(wù)納入手機(jī)閱讀基地運(yùn)營,目前擁有200多種手機(jī)報(bào)產(chǎn)品,每月用戶4000萬,合作媒體近200家。
另外,中國移動(dòng)聯(lián)合中央人民廣播電臺(tái)、團(tuán)中央中國青年出版總社和中國青年報(bào)、全國婦聯(lián)、中國外文局、新華社圖片中心,共同發(fā)布2014“悅讀中國”五大國家級(jí)合作項(xiàng)目,即:有聲閱讀項(xiàng)目、新青年閱讀項(xiàng)目、婦幼閱讀項(xiàng)目、華語閱讀項(xiàng)目、圖片閱讀項(xiàng)目;并聯(lián)合由7家內(nèi)容出版界代表、6家互聯(lián)網(wǎng)平臺(tái)方代表以及7家終端廠商代表共同組成的互聯(lián)網(wǎng)隊(duì)伍,共同成立“悅讀中國”移動(dòng)互聯(lián)網(wǎng)推廣聯(lián)盟,并發(fā)布《互聯(lián)網(wǎng)綠色正版五項(xiàng)宣言》,促進(jìn)數(shù)字閱讀產(chǎn)業(yè)發(fā)展。
值得一提的是,新聞出版廣電總局、國信辦、中國作協(xié)、中國移動(dòng)共同啟動(dòng)的“2014悅讀中國年”,標(biāo)志著其對(duì)數(shù)字傳媒和閱讀的重視,將為讀者帶來豐富的數(shù)字閱讀體驗(yàn)。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。
關(guān)注科技創(chuàng)新、技術(shù)投資。
以文會(huì)友,左手硬核科技,右手浪漫主義。