4月16日消息,聯(lián)想控股周三晚間正式向香港聯(lián)交所提交IPO申請(qǐng)書,正式啟動(dòng)公司香港上市計(jì)劃。按照該公司公布的股權(quán)結(jié)構(gòu)顯示,聯(lián)想集團(tuán)董事局主席柳傳志個(gè)人持股比例為3.4%。
IPO細(xì)節(jié)
聯(lián)想控股在招股書中未公布發(fā)行價(jià)及發(fā)行股數(shù),單據(jù)湯森路透旗下IFR估計(jì),此次IPO預(yù)計(jì)將于第三季度進(jìn)行,中金和瑞銀為此次IPO的聯(lián)席保薦人,將募資20億美元-30億美元。
聯(lián)想控股招股書中顯示,所募集資金將用于增加投資的資本,繼續(xù)投資具有高增長(zhǎng)潛力的行業(yè),例如消費(fèi)與服務(wù)相關(guān)行業(yè),并補(bǔ)充財(cái)務(wù)投資的資本。
業(yè)績(jī)表
根據(jù)招股書,聯(lián)想集團(tuán)控股2014年?duì)I收2895億元,2012年至今年復(fù)合增長(zhǎng)率為13.1%;凈利潤(rùn)41.6億元,2012年至今年復(fù)合增長(zhǎng)率為34.8%。
聯(lián)想控股成立于1984年,由中國(guó)科學(xué)院計(jì)算所投資20萬元人民幣,柳傳志等11名科研人員創(chuàng)立。2014年末,聯(lián)想控股總資產(chǎn)更高到2890億元。截至2014年12月31日,聯(lián)想控股總?cè)藬?shù)約為60379人。
股權(quán)結(jié)構(gòu)
關(guān)于聯(lián)想控股股權(quán)結(jié)構(gòu),申請(qǐng)資料顯示,截至2014年12月31日,國(guó)科控股持有其36%股權(quán),為第一大股東;聯(lián)持志遠(yuǎn)持有24%股權(quán)、中國(guó)泛海持有20%股權(quán)、聯(lián)恒永信持有8.9%股權(quán)。
其中,聯(lián)持志遠(yuǎn)、聯(lián)恒永信均為員工持股平臺(tái)。而在聯(lián)想控股的個(gè)人股東中,柳傳志持有3.4%股權(quán)、朱立南持有2.4%股權(quán)。
其他持股人包括:寧旻持股1.8%;黃少康持股1.5%;陳紹鵬持股1%;唐旭東持股1%。寧旻、陳紹鵬、唐旭東都是聯(lián)想控股高級(jí)管理人員。
至此,聯(lián)想兩家員工持股機(jī)構(gòu)共持有32.9%的股權(quán),而高管個(gè)人共持有9.6%的股權(quán),合計(jì)達(dá)到42.5%。
業(yè)務(wù)架構(gòu)
聯(lián)想控股目前擁有戰(zhàn)略投資及財(cái)務(wù)投資兩大類業(yè)務(wù)。通過戰(zhàn)略投資業(yè)務(wù),聯(lián)想控股押注于六大板塊,即IT、金融服務(wù)、現(xiàn)代服務(wù)、農(nóng)業(yè)與食品、房地產(chǎn)、化工與能源材料。
聯(lián)想控股的財(cái)務(wù)投資業(yè)務(wù)則包括天使投資、風(fēng)險(xiǎn)投資、私募股權(quán)投資。此外,公司還有對(duì)未上市企業(yè)及上市公司進(jìn)行直接投資,亦開展母基金投資業(yè)務(wù)。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。