3月24日,由30余名斯坦福商學(xué)院MBA學(xué)子組成的創(chuàng)業(yè)考察團來到聯(lián)想,對聯(lián)想及旗下創(chuàng)投先鋒聯(lián)想樂基金進行了參觀與交流。聯(lián)想樂基金董事總經(jīng)理宋春雨、聯(lián)想副總裁姚映佳等領(lǐng)導(dǎo)出席活動,并就中國TMT行業(yè)特別是“互聯(lián)網(wǎng)+”的發(fā)展趨勢及創(chuàng)業(yè)機會等問題,與斯坦福學(xué)子進行深入交流。雙方認為,無論是今天的移動互聯(lián)時代,還是未來的IOT萬物互聯(lián)時代,技術(shù)創(chuàng)新的主導(dǎo)地位是不可撼動的。今后,聯(lián)想樂基金將與斯坦福系的創(chuàng)業(yè)者聯(lián)盟達成戰(zhàn)略合作,持續(xù)為斯坦福畢業(yè)生提供投資及戰(zhàn)略支持,據(jù)悉這是聯(lián)想樂基金布局全球創(chuàng)投市場的重要戰(zhàn)略舉措。
聯(lián)想樂基金董事總經(jīng)理宋春雨表示:“推動聯(lián)想互聯(lián)網(wǎng)轉(zhuǎn)型、為聯(lián)想布局互聯(lián)網(wǎng)生態(tài)體系是樂基金的使命。樂基金期望從自身優(yōu)勢出發(fā),放眼全球,利用已有經(jīng)驗和聯(lián)想的戰(zhàn)略資源支持,積極為創(chuàng)業(yè)企業(yè)服務(wù),為全球科技行業(yè)的發(fā)展、進步,做出自己的貢獻。通過布局全球創(chuàng)投市場,樂基金將海外優(yōu)秀的創(chuàng)業(yè)經(jīng)驗和產(chǎn)品引入給中國本土創(chuàng)業(yè)者;也將中國本土優(yōu)秀的創(chuàng)業(yè)經(jīng)驗分享給海外創(chuàng)業(yè)者,最終實現(xiàn)協(xié)同發(fā)展,相互促進,共同繁榮,為聯(lián)想互聯(lián)網(wǎng)業(yè)務(wù)打造一個宏大的版圖。”
聯(lián)想樂基金董事總經(jīng)理宋春雨與斯坦福MBA們合影留念
宋春雨還透露,樂基金已在美國硅谷和以色列都進行一系列的創(chuàng)新技術(shù)投資,和當(dāng)?shù)氐捻敿塚C和創(chuàng)業(yè)生態(tài)圈都建立了非常好的合作關(guān)系。樂基金將攜手美國頂級高校的校友俱樂部和MBA/EMBA商學(xué)院(如哈佛、斯坦福等等),共同支持創(chuàng)業(yè)和技術(shù)創(chuàng)新。并利用聯(lián)想的產(chǎn)業(yè)和全球化優(yōu)勢,支持他們對接中國市場和全球市場和產(chǎn)業(yè)鏈資源。憑借“人、事、勢、時”的投資理念,聯(lián)想樂基金正以自身影響力與年輕的創(chuàng)業(yè)者相互學(xué)習(xí),逐漸成為推動聯(lián)想云服務(wù)業(yè)務(wù)集團不斷發(fā)展的“混合艦隊”。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。