CNET科技行者 11月11日 北京消息 2017年11月11日零點(diǎn)40分12秒,天貓雙11全球狂歡節(jié)的GMV已經(jīng)超過(guò)500億元。超200個(gè)國(guó)家和地區(qū)的消費(fèi)者第一時(shí)間搶到戰(zhàn)利品,而在天貓雙11啟動(dòng)的12分鐘后,就完成了當(dāng)天第一個(gè)訂單的簽收。上海嘉定區(qū)劉先生11日0點(diǎn)后在天貓超市購(gòu)買(mǎi)了零食,菜鳥(niǎo)智慧物流從離他就近的倉(cāng)庫(kù)發(fā)貨,實(shí)現(xiàn)了分鐘級(jí)配送。
此外據(jù)介紹,2017天貓雙11的交易峰值達(dá)到每秒32.5萬(wàn)筆,支付峰值達(dá)到每秒25.6萬(wàn)筆,是去年的2.1倍。
或許還有人記得,去年11月11日零點(diǎn),阿里巴巴集團(tuán)CEO張勇在杭州技術(shù)智慧中心宣布宣布2016年天貓雙11全球狂歡節(jié)啟動(dòng)。僅過(guò)了6分58秒,2016天貓雙11總成交已超100億元人民幣。今天,這一時(shí)刻來(lái)得更讓人有些猝不及防,只用了3分01秒。
“每年雙11都會(huì)出現(xiàn)很多新的驚喜,新的商業(yè)現(xiàn)象和商業(yè)力量,在這里有萌芽和展現(xiàn)。幾年后,我們回過(guò)去看,他們已經(jīng)成為最新興的商業(yè)力量、最新興的生產(chǎn)力量的代表。我想今年雙11也不例外,期待有更多新生力量、更多雙11的驚喜在今年雙11出現(xiàn)。”張勇說(shuō)。
來(lái)自天貓的數(shù)據(jù)顯示,截至11月11日凌晨1時(shí),來(lái)自日本、美國(guó)、澳大利亞、德國(guó)和韓國(guó)的商品最受消費(fèi)者喜愛(ài)。而來(lái)自中國(guó)香港、美國(guó)、中國(guó)臺(tái)灣、澳大利亞和新加坡的剁手黨,也在為雙11貢獻(xiàn)力量。
在此前的2017天貓雙11全球狂歡節(jié)啟動(dòng)會(huì)上,張勇把雙11定位成“一場(chǎng)全球范圍內(nèi)的社會(huì)大協(xié)同”——從2009年的一個(gè)想法到2017年的“中國(guó)現(xiàn)象,全球共振”,雙11是全球所有商業(yè)力量,在科技、大數(shù)據(jù)驅(qū)動(dòng)下,完成的一次全球大協(xié)同,也是世界的中國(guó)現(xiàn)象。
從交易的情況看,這個(gè)“共振”的趨勢(shì)已經(jīng)非常明顯,“振幅”也在不斷擴(kuò)大。
正如張勇所說(shuō),全社會(huì)的商業(yè)正走向數(shù)字經(jīng)濟(jì)時(shí)代,雙11是一個(gè)非常好的展現(xiàn)窗口。“雙11展現(xiàn)出了中國(guó)乃至全球商業(yè)力量的大協(xié)同、大合作。也是讓所有商家把最好的商品、服務(wù)展現(xiàn)給消費(fèi)者,讓所有剁手黨有跨越全球、跨越國(guó)界、跨越時(shí)區(qū)、跨越膚色和文化的共同節(jié)日。”
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。