在谷歌剛剛發(fā)布最新Nexus平板電腦、智能手機(jī)以及流媒體設(shè)備后,周四,谷歌發(fā)布了截至9月30日的2014財(cái)年第三季度財(cái)報(bào)。報(bào)告顯示,谷歌第三季度總營(yíng)收為165.2億美元,比去年同期的137.5億美元增長(zhǎng)20%;基于美國(guó)通用會(huì)計(jì)準(zhǔn)則,谷歌第三季度總凈利潤(rùn)為28.1億美元,比去年同期的29.7億美元下滑5%。谷歌第三季度每股收益為4.09美元,去年同期每股收益為4.38美元。
基于非美國(guó)通用會(huì)計(jì)準(zhǔn)則,谷歌第三季度凈利潤(rùn)為43.7億美元,去年同期為38.2億美元。谷歌第三季度每股收益為6.35美元,去年同期每股收益為5.63美元。分析師預(yù)計(jì)谷歌該季度營(yíng)收為165.9億美元,每股收益為6.54美元。
在發(fā)布財(cái)報(bào)后進(jìn)行的分析師電話會(huì)議上,谷歌宣布前首席商務(wù)官奧米德·柯德斯塔尼(Omid Kordestani) 重新?lián)卧撀毼弧=衲?月,谷歌前首席商務(wù)官的尼科什·阿羅拉(Nikesh Arora)宣布離職,并前往日本軟銀電信集團(tuán)。
谷歌第三季度財(cái)報(bào)顯示,在165.2億美元營(yíng)收當(dāng)中,網(wǎng)站營(yíng)收,即谷歌自己網(wǎng)站所產(chǎn)生的營(yíng)收為112.5億美元,在谷歌營(yíng)收中所占比例為68%,比去年同期的93.8億美元增長(zhǎng)20%;合作伙伴網(wǎng)站通過AdSense計(jì)劃所產(chǎn)生的營(yíng)收為34.3億美元,在谷歌營(yíng)收中所占比例為21%,比去年同期31.5億美元增長(zhǎng)9%;其他營(yíng)收為18.4億美元,在總營(yíng)收中所占比例為11%,比去年同期的12.3億美元增長(zhǎng)50%。
谷歌發(fā)布不及預(yù)期季度財(cái)報(bào),正值公司與電商巨頭亞馬遜競(jìng)爭(zhēng)升溫之際。本周早些時(shí)候,谷歌執(zhí)行董事長(zhǎng)施密特(Eric Schmidt)在德國(guó)柏林接受采訪時(shí)稱,谷歌最大的搜索對(duì)手并非雅虎,而是亞馬遜。
財(cái)報(bào)還顯示,截至2014年9月30日,不計(jì)入被分類為持有待售的現(xiàn)金,谷歌持有的現(xiàn)金、現(xiàn)金等價(jià)物以及可變現(xiàn)有價(jià)證券總值為621.6億美元,而截至2013年12月31日為587.2億美元。
截至2014年9月30日,谷歌全球范圍內(nèi)全職員工數(shù)量為55030名(其中谷歌業(yè)務(wù)部門員工總數(shù)為51564人,摩托羅拉移動(dòng)員工總數(shù)為3466人),截至2014年6月30日,該數(shù)字為52069名(其中谷歌業(yè)務(wù)部門員工總數(shù)為48584人,摩托羅拉移動(dòng)員工總數(shù)為3485人)。
周四盤后市場(chǎng),谷歌股價(jià)下跌近3%。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。