北京時(shí)間6月2日消息,去哪兒網(wǎng)今天公布了截至2015年3月31日第一季度未經(jīng)審計(jì)財(cái)報(bào)。財(cái)報(bào)顯示,去哪兒第一季度總營收為6.711億元(人民幣,下同。約合1.083億美元),同比增長100%;基于美國通用會計(jì)準(zhǔn)則(GAAP,以下簡稱“GAAP”),歸屬于去哪兒網(wǎng)股東的凈虧損為7.012億元(約合1.131億美元),去年同期凈虧損為1.836億元(約合2950萬美元)。
主要財(cái)務(wù)數(shù)據(jù)
總營收:為6.711億元(1.083億美元),同比增長100.0%,環(huán)比增長29.1%。
其中無線收入為3.985億元(約合6430萬美元),同比增長275.7%,占總營收的59.4%;機(jī)票以及機(jī)票相關(guān)收入為4.573億元(約合7380萬美元),同比增長94.3%,環(huán)比增長32.8%。
凈利潤(或凈虧損):基于GAAP,歸屬于去哪兒網(wǎng)股東的凈虧損為7.012億元(約合1.131億美元),去年同期凈虧損為1.836億元,上季度凈虧損為6.755億元。2015年第一季度每股基本及稀釋后存托憑證凈虧損均為5.85元(約合0.96美元)。
基于非美國通用會計(jì)準(zhǔn)則(non-GAAP,以下簡稱“non-GAAP”),凈虧損為2.934億元(約合4730萬美元),去年同期凈虧損為5570萬元,上季度凈虧損為2.959億元。
營業(yè)利潤(或營業(yè)虧損):基于GAAP,營業(yè)虧損為4.112億元(約合6630萬美元),去年同期營業(yè)虧損為1.741億元,上季度運(yùn)營虧損為6.666億元;基于non-GAAP,營業(yè)虧損為2.910億元(約合4690萬美元),去年同期營業(yè)虧損為1.741億元,上季度運(yùn)營虧損為6.666億元
毛利及毛利率:2015年第一季度毛利為4.905億元(約合7910萬美元),同比增長87.1%。2015年第一季度毛利率為73.1%,去年同期為78.1%,上季度為73.5%。
現(xiàn)金:截至2015年3月31日,去哪兒網(wǎng)持有的現(xiàn)金和現(xiàn)金等價(jià)物、限定用途現(xiàn)金和應(yīng)收賬款總額為14.000億元(約合2.323億美元)。
業(yè)績展望
2015年第二季度:去哪兒網(wǎng)預(yù)計(jì)2015年第二季度總營收同比增長約105%-110%,基于non-GAAP,運(yùn)營虧損率在負(fù)90%-100%之間,2015年第一季度該比率為負(fù)43.4%。
股價(jià)表現(xiàn)
周一美股市場收盤,去哪兒網(wǎng)股價(jià)漲1.92美元,收于46.01美元,漲幅為4.35美元。盤后市場去哪兒網(wǎng)股價(jià)下跌。截至美東時(shí)間6月1日17:14(北京時(shí)間6月2日早5:14),去哪兒網(wǎng)價(jià)跌2.39美元,跌幅為5.19%,暫報(bào)43.62美元。過去52周去哪兒網(wǎng)股價(jià)浮動范圍:22.11美元-54.23美元。
好文章,需要你的鼓勵
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。