3月24日,由30余名斯坦福商學(xué)院MBA學(xué)子組成的創(chuàng)業(yè)考察團(tuán)來到聯(lián)想,對聯(lián)想及旗下創(chuàng)投先鋒聯(lián)想樂基金進(jìn)行了參觀與交流。聯(lián)想樂基金董事總經(jīng)理宋春雨、聯(lián)想副總裁姚映佳等領(lǐng)導(dǎo)出席活動(dòng),并就中國TMT行業(yè)特別是“互聯(lián)網(wǎng)+”的發(fā)展趨勢及創(chuàng)業(yè)機(jī)會等問題,與斯坦福學(xué)子進(jìn)行深入交流。雙方認(rèn)為,無論是今天的移動(dòng)互聯(lián)時(shí)代,還是未來的IOT萬物互聯(lián)時(shí)代,技術(shù)創(chuàng)新的主導(dǎo)地位是不可撼動(dòng)的。今后,聯(lián)想樂基金將與斯坦福系的創(chuàng)業(yè)者聯(lián)盟達(dá)成戰(zhàn)略合作,持續(xù)為斯坦福畢業(yè)生提供投資及戰(zhàn)略支持,據(jù)悉這是聯(lián)想樂基金布局全球創(chuàng)投市場的重要戰(zhàn)略舉措。
聯(lián)想樂基金董事總經(jīng)理宋春雨表示:“推動(dòng)聯(lián)想互聯(lián)網(wǎng)轉(zhuǎn)型、為聯(lián)想布局互聯(lián)網(wǎng)生態(tài)體系是樂基金的使命。樂基金期望從自身優(yōu)勢出發(fā),放眼全球,利用已有經(jīng)驗(yàn)和聯(lián)想的戰(zhàn)略資源支持,積極為創(chuàng)業(yè)企業(yè)服務(wù),為全球科技行業(yè)的發(fā)展、進(jìn)步,做出自己的貢獻(xiàn)。通過布局全球創(chuàng)投市場,樂基金將海外優(yōu)秀的創(chuàng)業(yè)經(jīng)驗(yàn)和產(chǎn)品引入給中國本土創(chuàng)業(yè)者;也將中國本土優(yōu)秀的創(chuàng)業(yè)經(jīng)驗(yàn)分享給海外創(chuàng)業(yè)者,最終實(shí)現(xiàn)協(xié)同發(fā)展,相互促進(jìn),共同繁榮,為聯(lián)想互聯(lián)網(wǎng)業(yè)務(wù)打造一個(gè)宏大的版圖。”
聯(lián)想樂基金董事總經(jīng)理宋春雨與斯坦福MBA們合影留念
宋春雨還透露,樂基金已在美國硅谷和以色列都進(jìn)行一系列的創(chuàng)新技術(shù)投資,和當(dāng)?shù)氐捻敿塚C和創(chuàng)業(yè)生態(tài)圈都建立了非常好的合作關(guān)系。樂基金將攜手美國頂級高校的校友俱樂部和MBA/EMBA商學(xué)院(如哈佛、斯坦福等等),共同支持創(chuàng)業(yè)和技術(shù)創(chuàng)新。并利用聯(lián)想的產(chǎn)業(yè)和全球化優(yōu)勢,支持他們對接中國市場和全球市場和產(chǎn)業(yè)鏈資源。憑借“人、事、勢、時(shí)”的投資理念,聯(lián)想樂基金正以自身影響力與年輕的創(chuàng)業(yè)者相互學(xué)習(xí),逐漸成為推動(dòng)聯(lián)想云服務(wù)業(yè)務(wù)集團(tuán)不斷發(fā)展的“混合艦隊(duì)”。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。