6月9日消息 9日,針對攜程全資收購易到用車的傳聞,攜程官方發(fā)表回應(yīng),攜程沒有100%收購易到用車,只是戰(zhàn)略投資,且仍是易到用車的少數(shù)股東。
攜程方面還表示,作為股東之一,攜程將一如既往地支持易到用車的全面發(fā)展。同時(shí),易到用車將繼續(xù)保持公司的獨(dú)立運(yùn)營。
“互聯(lián)網(wǎng)那點(diǎn)事”今日發(fā)布微博稱,攜程有意收購國內(nèi)最早的互聯(lián)網(wǎng)約租車服務(wù)平臺易到用車。攜程已將旗下用車業(yè)務(wù)上升到事業(yè)部級別,用車業(yè)務(wù)將成為攜程的下一個(gè)發(fā)力點(diǎn)。對此,易到用車方面回應(yīng)稱,攜程已經(jīng)是易到的股東,對于全資收購或控股一事,不予回應(yīng)。
此前攜程發(fā)布的年報(bào)顯示,在2013年12月和2014年8月,攜程在易到用車的B輪和C輪融資中,以合計(jì)5300萬美元入股易到用車。對于這筆投資,攜程按照可出售的股權(quán)價(jià)值記錄為投資價(jià)值。截止2014年12月31日,攜程網(wǎng)將此筆投資的價(jià)值記錄為6.28億元(約合1.01億美元)。
攜程旅行網(wǎng)官方聲明全文:
目前,攜程旅行網(wǎng)沒有100%收購易到用車,只是戰(zhàn)略投資,且仍是易到用車的少數(shù)股東。
作為股東之一,攜程將一如既往地支持易到用車的全面發(fā)展。同時(shí),易到用車將繼續(xù)保持公司的獨(dú)立運(yùn)營。
“互聯(lián)網(wǎng)那點(diǎn)事”今日發(fā)布微博稱,攜程有意收購國內(nèi)最早的互聯(lián)網(wǎng)約租車服務(wù)平臺易到用車。攜程已將旗下用車業(yè)務(wù)上升到事業(yè)部級別,用車業(yè)務(wù)將成為攜程的下一個(gè)發(fā)力點(diǎn)。對此,易到用車方面回應(yīng)稱,攜程已經(jīng)是易到的股東,對于全資收購或控股一事,不予回應(yīng)。
此前攜程發(fā)布的年報(bào)顯示,在2013年12月和2014年8月,攜程在易到用車的B輪和C輪融資中,以合計(jì)5300萬美元入股易到用車。對于這筆投資,攜程按照可出售的股權(quán)價(jià)值記錄為投資價(jià)值。截止2014年12月31日,攜程網(wǎng)將此筆投資的價(jià)值記錄為6.28億元(約合1.01億美元)。
攜程旅行網(wǎng)官方聲明全文:
目前,攜程旅行網(wǎng)沒有100%收購易到用車,只是戰(zhàn)略投資,且仍是易到用車的少數(shù)股東。
作為股東之一,攜程將一如既往地支持易到用車的全面發(fā)展。同時(shí),易到用車將繼續(xù)保持公司的獨(dú)立運(yùn)營。
需要說明的是,作為國內(nèi)最大的OTA,攜程已將各個(gè)環(huán)節(jié)接入易到用車服務(wù)。首先,攜程已向更多城市推廣易到用車服務(wù);其次,攜程的各項(xiàng)服務(wù)都已推薦易到用車;再次,雙方用戶賬號已打通。
對此,攜程旅行網(wǎng)副總裁莊宇翔曾表示,與易到用車合作,對于攜程用車業(yè)務(wù)是很大的利好。攜程用車目標(biāo)是做到隨時(shí)打車、專車服務(wù)、出租車價(jià)格,解決國內(nèi)旅客打車難、用車貴的問題,希望改變中國旅客打出租車的出行習(xí)慣。特別是,攜程的APP產(chǎn)品和服務(wù)將會(huì)進(jìn)一步提升,以實(shí)現(xiàn)讓旅客“隨叫隨到”、“說走就走”。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。