今天凌晨消息,原定于4月2日22點在美國納斯達克上市的窩窩團IPO延期(交易代碼為“WOWO”,承銷商為Axiom)。窩窩團官方聲明稱,將掛牌時間推遲到4月7日之后。
窩窩團執(zhí)行副總裁吳建光表示:“目前仍有一些技術(shù)問題需要解決,恰逢最近的小長假之際(美國復活節(jié)和中國的清明節(jié))投資人和整體市場心態(tài)尚不穩(wěn)定,因此最晚上市時間推遲至4月15日。”
今年1月9日窩窩團在美國提交招股書,并開始嘗試二次上市,在2月13日和2月20日同股東簽署了兩份決議,其中包括4項限定條款并且同時滿足才能上市,分別是扣除承銷商傭金等各種費用后的凈收入不低于4000萬美元,而收入中的至少70%必須來自新投資者,這意味著必須要足夠多的資者愿意買窩窩團此次發(fā)行的IPO股票。
上市前的基于發(fā)行價計算的市值(不包括與本次發(fā)行相關(guān)或者由此帶來的購股權(quán)股票數(shù))不得低于2.53億美元,即最低發(fā)行價不能少于每股美國存托股9.8美元)。
窩窩團公開數(shù)據(jù)顯示,該公司2014年前9個月凈營收為2060萬美元,而2013年同期為2760萬美元;凈虧損為3240萬美元,相比之下2013年同期凈虧損為2110萬美元。
根據(jù)易觀智庫發(fā)布的《中國團購市場季度監(jiān)測報告2014年第3季度》數(shù)據(jù)顯示,2014年第三季度,美團、大眾點評、百度糯米分別以55%、22%、13%的市場份額成為中國團購市場的前三甲,其他團購網(wǎng)站共同分割10%的市場份額。
電商分析師魯振旺曾表示:“團購這一領(lǐng)域,窩窩團面臨的機會有限。美團、大眾點評、百度糯米已成為行業(yè)巨頭,占據(jù)了近90%的市場份額。糯米與淘點點都有百度與阿里的投資做后盾,因此拉手網(wǎng)、窩窩團等平臺要搶占剩下的市場份額變得很困難。”
窩窩團成立于2010年3月。2011年5月,該網(wǎng)站曾經(jīng)高調(diào)對外宣布啟動赴美IPO,成為首家在美國啟動IPO的中國團購網(wǎng)站,當時獲得包括鼎暉、天佑、清科等多家機構(gòu)的融資,其中“團購業(yè)內(nèi)單筆最大融資額為2億美元”。然而伴隨其競爭對手拉手網(wǎng)的上市夢破滅,以及2011年下半年資本市場的轉(zhuǎn)冷,窩窩團的赴美IPO計劃遭到了擱置。
各位朋友:
承蒙大家關(guān)注,窩窩在2015年3月31日正式獲得了SEC的IPO生效批準。通常而言,SEC生效批準后,公司可以兩周內(nèi)在股票交易所掛牌。
基于此,窩窩與納斯達克確認,計劃北京時間4月2日晚上掛牌上市,但由于券商流程原因,導致掛牌交易時間整體延后,交易時間縮短。而又因恰逢美國復活節(jié) 小長假及中國的清明節(jié)假期,為了充分保證投資人利益,我們最終決定,將掛牌時間推遲到4月7日之后。這是我們在與各方不斷反復溝通、充分論證后,做出的艱 難而又負責任的決定!
對因此而給各位媒體朋友、合作伙伴,及窩窩小伙伴們帶來的困擾,我們感到十分抱歉,同時懇請大家的繼續(xù)理解、關(guān)注和支持。
五年征途歷歷,從千團大戰(zhàn)到幾強僵持,自行業(yè)巔峰到蟄伏求變,窩窩深諳:企業(yè)的發(fā)展與個人成長一樣,都得經(jīng)歷重重考驗。而自這重重考驗中挺立而今,我們同時更加堅信,踏實堅持與創(chuàng)新求變對窩窩持續(xù)發(fā)展的意義所在——它也將支撐我們走得更遠。
上市是窩窩征途上,重要的,和其中一個節(jié)點。好事多磨,風雨之后見彩虹!同時,更期待各位朋友關(guān)注窩窩的繼續(xù)前行、生長和蛻變!
再次感謝大家的理解和支持!
窩窩
2015年4月3日
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠?qū)碗s指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡技術(shù),通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領(lǐng)域帶來了效率和精度的雙重突破。