作者| 周雅
配圖| 扈佃杰
ChatGPT的驚艷表現,讓各路玩家卷起袖子爭先入局“生成式AI”,但驀然回首,NVIDIA依然是AI牌桌上固定不變的座上賓——因為這家AI芯片一哥是這場大模型變革背后的加速器,所以在ChatGPT狂飆數月的同時,這家公司的市場表現也隨之水漲船高,穩(wěn)坐AI芯片市值榜前排。
而如果說ChatGPT是AI圈近期最靚的仔,那么幕后功臣NVIDIA最近也有一個屬于自己的熱搜時刻——那就是NVIDIA GTC 2023,它的受重視程度,連NVIDIA掌門人黃仁勛都不忘補上一句“這將是我們迄今最重要的一次GTC”,吊足大家的胃口。
當然了,GTC的各種主菜確實也會讓AI赴宴者食指大動。比如會上就有一場“爐邊談話”,談話的雙方之一是東道主黃仁勛,另一位則正是OpenAI聯合創(chuàng)始人兼首席科學家Ilya Sutskever。頗為玄妙的是,兩家公司在AI領域各貢獻了一條指數定律。這邊是老黃親自提出的“黃氏定律”:AI芯片的推理性能每年翻一倍,OpenAI也有過一個“新版摩爾定律”:宇宙智能數量每18個月翻一番。
熟悉“麥粒擺滿棋盤”故事的人會知道,一切涉及指數級的增長,背后都將孕育經濟價值。
看似沒有波谷的AI創(chuàng)新潮
從圖靈機的出現,AI出生至今已60余年,接近一個甲子的長度。在這漫長歲月里,AI先后經歷了三次浪潮。但是自從2010年之后,AI第三次浪潮來襲,深度學習成為風口,情勢立刻變得不一樣。
自那以后,AI幾乎每隔一段時間就會跳出來給人類驚喜。從打敗圍棋大師的AlphaGo,到大型視覺數據集ImageNet,到能預測蛋白質結構的AlphaFold,再到出道即高峰的ChatGPT,莫不如是。
“ChatGPT敲開了AI普及的一個任意門。”NVIDIA全球副總裁劉念寧在科技行者的獨家專訪中指出,像ChatGPT這類的大型語言模型(Large Language Model)將“生成式AI”引入了公眾視線——幾乎所有的傳統應用都將被AI重塑,被冠上AI+的標簽。
不過,AI持續(xù)開花結果,其實是源于前人栽樹。劉念寧對此拋出觀點:“AI不是一觸可及,而是水到渠成。”AI的真正突破起于十年前,當GPU這類的并行系統被用在AI上,大家才突然意識到,原來AI發(fā)展可以被算力加速。當算力就緒之后,人類開始實現算法突破,再加上搜索引擎、智能手機、移動應用積攢了大量的數據,AI才得以發(fā)揚光大。如果沒有這“三駕馬車”,現在也不可能有大模型,更不可能有進步的AI。
“算力算法數據”始終是AI發(fā)展的鐵律,擁有超大規(guī)模參數量的ChatGPT是個美妙的作品,更是一個證明:“生成式AI”應用要想得到普及,必須依托大模型。就像上文所說,僅有好點子是不行的,技術基礎設施的創(chuàng)新是不可或缺的。
而AI基礎設施的每一塊標的,都有“卷王”NVIDIA的姓名。
如同黃仁勛最近在電話會中提到的,NVIDIA本質上是當今AI系統的操作系統,它實現全流程:數據處理—學習訓練—驗證—推理的加速。它可以運行于每個云中,可以本地運行,可以支持每個框架和模型,并在任何地方實現加速。
具體到“生成式AI”,劉念寧進一步說明,“生成式AI”如果要普及,就必須把數據中心打造成AI工廠,現在全球服務器只有不到10%具備專用AI加速的能力,NVIDIA的強項就是提供超高性能能效的平臺,協助企業(yè)來構建、定制、部署“生成式AI”的大模型,未來是一個很大的機會。
劉念寧介紹,NVIDIA的重中之重就是加速計算平臺,其核心是「三芯+二異」,“三芯”指的是“GPU+CPU+DPU”,“二異”指的是“CUDA+DOCA”。與CUDA實現GPU編程的抽象化一樣,DOCA實現了更高級別的DPU編程抽象化。它們被共同裝進了一個產品眾多、結構復雜、能夠橫跨不同行業(yè)/應用場景/解決方案的通用計算全棧式矩陣,即「全棧式AI計算平臺」。
一場曠日持久戰(zhàn)
“成為下一個”或“挑戰(zhàn)”ChatGPT,正在成為創(chuàng)業(yè)者們爭先恐后的方向,這其中,既有王慧文、王小川、周伯文等這樣的老江湖,還有不想錯過任何風吹草動的AI創(chuàng)客們,大家一邊懷揣AI夢想,一邊還頭頂巨大焦慮:
這個賽道是否門檻太高?
單純從技術成本上看,以ChatGPT的“母體”GPT-3模型為例,據稱微軟公司專門為其開發(fā)者OpenAI打造的超算系統據稱擁有超過28萬個CPU內核和1萬個GPU,整體性能可以達到2020年時全球TOP500超級計算機榜單前五。如果這一信息屬實,則相當于OpenAI在用一套完整超算系統專門支撐其模型訓練。
所以,宏觀看AI發(fā)展局面整體是積極向上的,但微觀看AI玩家是各有各的痛點。當喧囂過后,留給AI創(chuàng)業(yè)者的無疑是嚴峻的實力大考——涉及技術能力、融資狀況、商業(yè)落地、生態(tài)合作、市場宣傳等各項指標。
不過,NVIDIA似乎已經提前預判了這些痛點。因此,它除了一直在提供一個技術加速平臺之外,還為AI創(chuàng)業(yè)者提供了發(fā)展加速平臺——“NVIDIA 初創(chuàng)加速計劃 (NVIDIA Inception) ”。NVIDIA初創(chuàng)生態(tài)中國區(qū)域經理婁明告訴科技行者,該計劃聯合了國內外投資機構、創(chuàng)業(yè)孵化器、創(chuàng)業(yè)加速器、行業(yè)協會、科技媒體、產業(yè)園、大企業(yè)、渠道伙伴等,打造創(chuàng)業(yè)加速生態(tài)系統,能夠提供產品折扣、技術支持、市場宣傳、融資對接、業(yè)務推薦等一系列服務,加速AI創(chuàng)企的發(fā)展。
“我們希望能搭成一個平臺,讓這個平臺支持中國AI創(chuàng)企乃至整個產業(yè)發(fā)展,NVIDIA在里面會提供全部力量。”婁明進一步介紹道,“NVIDIA 初創(chuàng)加速計劃”是一個生態(tài)項目,為免費會員制??萍夹姓呤崂砗蟀l(fā)現,該計劃實則用一套組合拳,覆蓋AI創(chuàng)企的全生命周期:
首先,該計劃會以技術為驅動,面向應用或計劃應用深度學習、機器學習、數據科學以及CUDA、DOCA、Omniverse等NVIDIA相關技術;使用或計劃使用 GPU、DPU、CPU作為運算基礎的創(chuàng)業(yè)公司。
其次,會提供技術問題的快速解答,包括線上線下的免費技術介紹。(目前,該項目為會員企業(yè)提供了上千次的一對一技術支持,上萬次的免費技術培訓。)
第三,如果會員有需求買NVIDIA的產品,還會提供產品折扣。“創(chuàng)企可能沒有足夠資金持續(xù)買GPU,沒關系,我們可以讓他們上NVIDIA合作伙伴的GPU云,不管是百度、阿里、騰訊的,還是AWS的,我們都有合作。”(目前,該項目為會員企業(yè)提供了400次以上的GPU云福利,近700次的NVIDIA相關產品的折扣支持,累計為創(chuàng)業(yè)企業(yè)節(jié)省了數千萬美元的采購費用。)
第四,如果創(chuàng)業(yè)公司需要錢融資,還有一個專門的投資機構對接平臺“NVIDIA初創(chuàng)加速計劃創(chuàng)投聯盟(NVIDIA Inception VC Alliance)”,把投資機構和創(chuàng)企攏在一起溝通。(目前該項目已經舉辦了近百場的路演活動。)
第五,有了技術做了產品,沒有客戶它也活不下去,如果創(chuàng)企需要業(yè)務落地便于自己造血,還會提供一系列活動,給創(chuàng)企推薦業(yè)務、產品、客戶。(過去幾年間,該項目已經累計為近300家會員公司提供了大企業(yè)對接服務,幫助創(chuàng)業(yè)公司尋求商業(yè)機會。)而且在NVIDIA GTC 2023,“NVIDIA 初創(chuàng)加速計劃”還首次辦了場論壇,聯合VC和AI創(chuàng)企,一起探討AI初創(chuàng)企業(yè)在中國市場的發(fā)展機會。
一整套組合拳下來,直接反映到數據上是亮眼的成績單。該計劃自2016年落地中國以來,中國區(qū)的會員公司已經超過1500家,會員數量位居全球第二、非英語國家第一。而且,中國區(qū)的會員公司在行業(yè)和地域上分布廣泛,分布在30個以上不同的行業(yè)以及全國30個以上的城市。此外,目前已經有數十家會員公司上市,上百家成為獨角獸企業(yè)。婁明還強調,“并不是說一定是AI創(chuàng)業(yè)公司我們才歡迎你來,而是只要對這方面感興趣甚至沒有相關業(yè)務,我們都會非常歡迎你進來,會提供一視同仁的支持。”
作為“NVIDIA 初創(chuàng)加速計劃”中國區(qū)的牽頭者,婁明可謂一路伴隨著中國AI創(chuàng)企成長,他感慨:“我感受比較深的是,中國AI創(chuàng)業(yè)者的業(yè)務已經深入扎根到了各行業(yè),剛開始他們還只做一些較基礎性的內容,專注在深度學習算法研究階段,而現在已經逐漸進入到你幾乎能想到的所有行業(yè),甚至養(yǎng)豬、種莊稼等等。”
在目前大火的“生成式AI”圈,也是驚喜不斷。比如其中一個應用是亙聰科技的“意間AI”,這款AI繪畫小程序是AI平臺自己通過標注數據集,訓練生成獨有風格,該風格被用在需要色彩搭配的設計領域。亙聰科技CEO郭亞鵬告訴科技行者,以前畫一張圖要20分鐘,現在只需3秒,算力對“生成式AI”應用的商用起到了強大推動作用,出圖的成本極大降低了。
所以,AI創(chuàng)新的確從未停止。
同在NVIDIA創(chuàng)新加速生態(tài)中,創(chuàng)投聯盟成員元禾原點合伙人王斌也告訴科技行者:“由于ChatGPT的橫空出世,接下來AI領域應該會進入一個新的創(chuàng)業(yè)和投資高潮。”ChatGPT從自然語言領域的AI開始,將帶來人機交互方式的革命,將會讓AI和互聯網一起成為經濟增長的基礎設施。“各個行業(yè)和公司都需要擁抱ChatGPT,擁抱AI,否則可能會被淘汰。”
立于浪尖的中國AI
AI發(fā)展的終極形態(tài)是什么,或許誰都不得而知,而當我們真的把它視為一場技術革命時,就會明白這是一場將持續(xù)很久的仗。
當我們把視線聚焦到中國,談及AI創(chuàng)企的差異化表現,婁明總結道,與全球相比,中國AI創(chuàng)企總體水平較高,在數量上雖然不如歐美的創(chuàng)業(yè)公司多,但在技術上保持著先進水平,行業(yè)分布也很廣,融資能力明顯優(yōu)于歐洲、不遜于美國水平。“這也是為什么說中國AI創(chuàng)企整體有一個非常好的預期,因為它其實有足夠多的資金在支持。”
與AI巨頭相比,雖然條件上有些差距,但也并非無路可走。比如說AI創(chuàng)企能夠迅速接受新技術、有更強的創(chuàng)新能力、方向靈活等,所以特別是在AI發(fā)展的迅猛時代非常容易做到“后來者居上”。
以“NVIDIA 初創(chuàng)加速計劃”為例,很多會員公司已經開始自己想在中國搭建一個幾千片NVIDIA GPU算力的平臺。巨頭的影響恒在,但也不是致命的,只要把自身做好,照樣還會有很多客戶。“你會發(fā)現,AI的賽道有很多,不同的行業(yè)都會有一些機會,這些機會有可能讓這些創(chuàng)業(yè)公司生存下去,也許會發(fā)展得很好,這個餅足夠大。”
具體而言,婁明梳理了所看好的AI未來方向。他說,在今后的發(fā)展過程中,「圖形圖像」首先是基礎,“五年前人臉識別還算是智能手機的前沿技術,如今已經是隨便一臺手機的標配”。其次是「語音語義」,它與圖形圖像相比完全不是一個量級,所以它將會誕生很多應用,語音助手、自動駕駛、智能音箱等等。第三是「生成式AI」,它未來在各個領域都會有一些應用,如虛擬人。第四是「元宇宙」,但它是一個長期的賽道,需要一系列基礎設施的就緒。
“我還是比較看好中國創(chuàng)業(yè)公司的未來”,婁明說。
從投資策略的角度,王斌也給出了投資AI的不同視角。第一,對行業(yè)有深入的洞察,判斷未來可能會成長起來的新技術。第二,精挑細選投資標的,主要從以下三個方面做判斷:
1、 看市場。它首先得是一個廣闊的市場。因為只有足夠大的池子,才能養(yǎng)足夠大的魚,我們要確保養(yǎng)出來的是鯨魚,而不是金魚。
2、 核心是看人。它必須有一個優(yōu)秀的團隊。我們會從多個維度對人做判斷,包括核查他過去的工作經歷跟現在做的事情的匹配度,他的管理能力,業(yè)內口碑,價值觀以及做事風格等等。
3、 看產品。技術方向最終都會轉化成一個產品,我們會看它要做的產品在技術上的領先性、突破性、顛覆性有多少。
王斌最后強調,元禾原點原則上只投初創(chuàng)企業(yè)融資的前兩輪,技術方面的投資圍繞兩個主線:一是創(chuàng)新的顛覆性的技術,二是相對成熟的技術在相對成熟的商業(yè)場景中的創(chuàng)新應用。
說到這兩者的結合,其實NVIDIA自身就是一個創(chuàng)新典范示例。回顧NVIDIA 30年來發(fā)展史,大致可以分為三段。從1993年到2000年“初創(chuàng)期”,預見計算機發(fā)展帶來的龐大圖形計算需求,并創(chuàng)造了GPU這一革命性的技術;從2000年到2006年“增長期”,NVIDIA持續(xù)打磨的GPU在游戲行業(yè)迅速發(fā)酵,坐穩(wěn)圖形處理器市場一哥的位子;從2006年至今“多元化發(fā)展期”,預見通用計算的廣闊應用前景,于是利用CUDA這一平臺,讓開發(fā)者可以把GPU中大量的計算能力利用起來,大量應用于機器學習、深度學習、云計算、數據中心等領域。
所以,如果說數據真是石油的話,我們對它的提煉似乎還遠遠沒有完成。黃氏定律驅動之下,開發(fā)、推理、訓練數據還會進一步產生裂變式反應,帶來創(chuàng)新的飛輪效應。
時代有時代的風口。出于好奇,我讓ChatGPT生成一段關于創(chuàng)業(yè)的感悟,它是這樣說的:
“創(chuàng)業(yè)者就像是一架正在飛行的飛機,一切不斷地調整、糾正和操作,都為了保持在正確的航線上。”
NVIDIA和AI創(chuàng)客們,也正是在AI這條時代的航線上,結伴同行。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數學推理能力提升8.6%,通用推理提升8.4%,且無需任何數學題目作為訓練材料。研究發(fā)現游戲中的三種推理模式能成功轉移到數學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術通過融合多幀圖像的"圖結構"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術利用圖像間的不變幾何關系,結合深度學習和數學優(yōu)化方法,在合成數據集上實現37.9%的精度提升,并在真實設備上展現出色泛化能力,為機器人、AR和自動駕駛等領域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現,經過強化學習訓練的視覺語言模型雖然表現出"頓悟時刻"現象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構聯合提出SparseLoRA技術,通過動態(tài)稀疏性實現大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。
關注科技創(chuàng)新、技術投資。
以文會友,左手硬核科技,右手浪漫主義。