作者|周雅
2023年春天,國內(nèi)外AI人工智能度過了一個“瘋狂三月”, GPT4、MetaAI、斯坦福等國際大機構(gòu)分別發(fā)布了AI大模型;國內(nèi)也不甘落后,據(jù)不完全統(tǒng)計,目前國內(nèi)已有百余個AI大模型先后發(fā)布,更被輿論渲染為“群模大戰(zhàn)”。大模型儼然成為了全球人工智能競賽的主戰(zhàn)場。
但是在大模型層面,高投入、高風險、高回報是其投資特點,這需要具備大算力、大數(shù)據(jù)和強算法等核心技術(shù)能力,技術(shù)門檻高、規(guī)模效應(yīng)強,屬于科技巨頭的競賽。那這是不是意味著初創(chuàng)公司“沒戲了”?AI大模型創(chuàng)業(yè)投資,到底是不是藍海?如果不做通用大模型,垂直模型的蛋糕有多大?
對此,行行AI、科技行者、創(chuàng)投變辯辨、至頂科技,聯(lián)合組織了一場沙龍直播,至頂科技CEO兼總編輯高飛作為沙龍主持人,對話四位AI大模型領(lǐng)域的創(chuàng)業(yè)者:北京橙溪科技創(chuàng)始人陳煉、VitallyAI CTO蔣鎰?wù)?、波特時空創(chuàng)始人劉大鴻、寧夏云瑞致勝科技有限公司CEO于千城,一起深度探討AI大模型風口下的新機遇、新挑戰(zhàn)。
【Part 1】大模型的機會到底有多大?
(1)談下一個大模型:給時間,總能大力出奇跡
高飛:在大模型領(lǐng)域,巨頭已經(jīng)紛紛下場,國內(nèi)的大模型創(chuàng)業(yè)還有沒有機會誕生下一個OpenAI?
于千城:這要區(qū)分來看。單從規(guī)模體量來看,有一定可能。但從創(chuàng)新性和社會責任感的角度,可能性幾乎沒有。
中國的公司還是太急功近利了,沒有哪一家公司真正靜下心來說“我真的是要推動生產(chǎn)力、推動社會的進步”,幾乎找不到這樣的公司。如果不能靜下心思考,還是很難實現(xiàn)突破的。
但中國有這么大的市場,若是出現(xiàn)一兩個有影響力的公司應(yīng)該毫無問題,畢竟這是時代發(fā)展的趨勢。中國人實現(xiàn)從“1到N”的能力非常強,但是“從0到1”會存在社會機制、環(huán)境土壤的局限性。
蔣鎰?wù)洌?/strong>我的想法不太一樣。中國的大模型創(chuàng)業(yè)公司能否搞出一個OpenAI,答案基本上是No。OpenAI背后有個“金主”微軟,OpenAI全是煉金術(shù),一路都在做實驗,大語言模型(LLM)基于GPT的所有實驗它基本上都做完了,做著做著才搞明白,ChatGPT最終才出來了。整個過程冒很大風險。
所以中國創(chuàng)業(yè)公司想搞出同樣的OpenAI,可能性幾乎沒有,但是會出現(xiàn)類似于“OpenAI”的東西,因為現(xiàn)在用不了美國的,中國只能自己搞。
國內(nèi)的大廠,不管是百度還是阿里,肯定也知道自己要做一個通用大模型,至少是GPT-4的水準。所以,中國肯定會出現(xiàn)一個大模型,至于到底花落誰家?百度實力是有的。
總之,大語言模型在我看來,已經(jīng)不是一個科學(xué)技術(shù)問題,而本質(zhì)上就是一個工程問題,給點時間,總能大力出奇跡。
(2)談大模型創(chuàng)業(yè):我們有一個什么樣的互聯(lián)網(wǎng),就會有一個什么樣的大模型
高飛:大家雖然認為,國內(nèi)會出現(xiàn)類似的大模型創(chuàng)業(yè)公司,但這中間肯定有困難之處。記得早些年談大數(shù)據(jù)之難,咱們有4個“V”標準(規(guī)模性Volume、高速性Velocity、多樣性Variety、價值性Value),那么同樣的問題,大模型的創(chuàng)業(yè)難度到底“難”在哪?是數(shù)據(jù)、算力、算法、資金、政策,到底是哪里卡住了大模型創(chuàng)業(yè)?
蔣鎰?wù)洌?/strong>大模型的創(chuàng)業(yè)基本上跟創(chuàng)業(yè)公司沒關(guān)系,尤其是通用大模型,只有大玩家才能“燒”的起。而對于中國第一個大模型,這里頭的障礙首先是數(shù)據(jù)。
OpenAI的數(shù)據(jù)基本是按照token來計算,而互聯(lián)網(wǎng)能爬取來訓(xùn)練的數(shù)據(jù)量,也就10T-20T的token,況且國內(nèi)的很多英文數(shù)據(jù)質(zhì)量比較糟糕,很多科學(xué)期刊/學(xué)術(shù)論文的英文數(shù)據(jù),相對還是要比中文富裕一些,只有片面的數(shù)據(jù)是悟不出背后的數(shù)據(jù)規(guī)律的。這里面還要注意,不能有錯誤數(shù)據(jù),因為低質(zhì)量的錯誤數(shù)據(jù)會壓著模型長智力;再加上中文還有一些敏感詞和敏感信息被過濾掉了,這些都會影響國內(nèi)大模型的數(shù)據(jù)。
其次還有算力的挑戰(zhàn)。大模型的預(yù)訓(xùn)練對卡的要求高到讓人恐懼,是成千上萬塊英偉達A100來支撐的,但是沒有卡你咋訓(xùn)練大模型。所以能訓(xùn)練大模型的公司,卡肯定得有,數(shù)據(jù)得有,這兩個挑戰(zhàn)加起來已經(jīng)夠大了。
算法上我倒是覺得挑戰(zhàn)不大,因為算法基本已經(jīng)成型,頂多你把模型的形狀改一改,能夠更適配GPU,或者把模型里的某個關(guān)鍵環(huán)節(jié)改一改算子,也不是什么問題,因為它已經(jīng)成熟了。
劉大鴻:一方面,我覺得大模型的“大”更多是指“廣”,像ChatGPT覆蓋的范圍非常廣。語言本身是一個復(fù)雜的網(wǎng)絡(luò),如果覆蓋不夠廣,很難去概率接龍,導(dǎo)致很多數(shù)據(jù)無法生成。
目前,國內(nèi)很多大模型不算嚴格意義上的大模型,更像是一個簡體中文的垂直模型,覆蓋面有限。為真正達到大模型的效果,需要涵蓋更多領(lǐng)域和語言,這需要大量高質(zhì)量的數(shù)據(jù)作為支撐,這對國內(nèi)來說是一個短板。
國內(nèi)網(wǎng)上公開的數(shù)據(jù)越來越少,而高質(zhì)量的內(nèi)容都出現(xiàn)在一些相對私域的地方,這都會影響大模型的訓(xùn)練結(jié)果;同時,國內(nèi)很多的網(wǎng)絡(luò)數(shù)據(jù),經(jīng)過了大量的過濾和敏感內(nèi)容的處理,最終也會導(dǎo)致大模型的訓(xùn)練結(jié)果有缺憾。
另一方面,大模型的“大”還體現(xiàn)在“工程浩大”,這個問題在包括中文在內(nèi)的所有語言環(huán)境下存在。最初我看到一些報道,英文剛訓(xùn)練出來的內(nèi)容也是不忍直視的,OpenAI經(jīng)過了大量的強化訓(xùn)練,經(jīng)過了RLHF(reinforcement learning from human feedback,譯為“以強化學(xué)習方式依據(jù)人類反饋優(yōu)化語言模型”),把這些內(nèi)容做了人類偏好的處理。
數(shù)據(jù)處理是一個非常浩大的工程,需要大量人力和時間積累。就像剛才蔣總所說,“算法”已經(jīng)趨于成熟,“數(shù)據(jù)”可能大公司也有不少,但是要實現(xiàn)整個工程就很難,并不是一堆原材料加一個方法就能做出來。
所以,國內(nèi)大模型也要經(jīng)歷從最初的內(nèi)容出現(xiàn)、到不斷強化、到人類不斷反饋的一個生長過程,它可能會比OpenAI快一點,但快不了太多。我記得當時百度創(chuàng)始人李彥宏出來演講時說,“可能我們差幾個月或者差兩年”,但后面還接了句話說,“也可能我們永遠追不上”,這話我覺得是有深層含義的。
就像我們現(xiàn)在回看中國互聯(lián)網(wǎng),大模型像是互聯(lián)網(wǎng)本身的映射,我們有一個什么樣的互聯(lián)網(wǎng),就會有一個什么樣的大模型。所以,從體量上我們可能會做出來一個很大的公司,但是在數(shù)據(jù)的廣度和工程上,還是有一個漫長的過程。
(3)談大模型弱點:避免AI盛產(chǎn)垃圾信息
高飛:我們剛才談的略有些悲觀色彩,但是既然說到投資創(chuàng)業(yè),總得向前看,有投資人提到 “大模型的弱點就是中國AI領(lǐng)域未來的創(chuàng)業(yè)機會”,你們認為既有玩家是否有致命弱點?
于千城:這扇窗已經(jīng)被打開了,未來一定是往這個方向去走。既然中國有這么大的市場和需求,國家為什么還在觀望?我認為AI的“奇點”時刻確實是到了,所以盡管方向是對的,但是種種不確定因素還沒有被排除掉,所以國家也沒有完全在這塊發(fā)力。但是,各行各業(yè)都在發(fā)力,因為大家知道這是大趨勢。
中國的市場體量在那擺著,眾人拾柴火焰高,我相信中美之間未來在AI賽道的差距不會太大。從數(shù)據(jù)的角度,這么多年來,國人已經(jīng)習慣把學(xué)術(shù)成果用英文來發(fā)表,給英文積攢了大量的語料,但是國家應(yīng)該會越來越重視這件事,會慢慢的去積攢有質(zhì)量的中文語料,去訓(xùn)練符合國家需要的大模型,所以從前景來看,很難說中國會在這一塊落后多久。
陳煉:有個致命弱點。大模型所產(chǎn)生的內(nèi)容,會不會成為曾經(jīng)互聯(lián)網(wǎng)時代的垃圾郵件?人工智能確實是提升了內(nèi)容生產(chǎn)的效率,但是沒有提升內(nèi)容消費的效率,這會讓很多人處于一種垃圾信息的獲取狀態(tài)。
大模型生成的內(nèi)容里,很多都是沒有靈魂的,純粹是為了節(jié)省成本而創(chuàng)造,這對社會可能并不是進步,甚至可能變成一個曾經(jīng)的垃圾郵件狀態(tài),這是致命問題。
【Part 2】大模型到底是不是創(chuàng)造了iPhone時刻?
(1)大模型與應(yīng)用=iOS與App Store?
高飛:關(guān)于大模型,投資也好,創(chuàng)業(yè)也好,如果像黃仁勛說的是AI的iPhone時刻,大模型和應(yīng)用的關(guān)系會不會類似iOS和App Store的關(guān)系?
陳煉:它們其實有很大的類似之處。iOS操作系統(tǒng),本身是一個圖文、視頻、語音的交互存儲系統(tǒng),是最底層的一個電子系統(tǒng)。而大模型更像是一個云服務(wù)平臺,是從圖文、視頻、語音量變引起質(zhì)變的一個基于權(quán)重隨機的智能算法產(chǎn)物。它們本質(zhì)都是基于圖文、視頻、語音做的一個操作系統(tǒng),這是它們的相同點。
不同點在于,一個是硬件操作系統(tǒng),另外是一個算法操作系統(tǒng),在算法操作系統(tǒng)上一定會衍生出各種各樣的、基于人們生活工作的、不同領(lǐng)域的App,所以這種可能性是存在的。
于千城:我也覺得會有。量變產(chǎn)生質(zhì)變,不光是在大模型上,在整個生態(tài)上也是一樣。各行各業(yè)的人都在創(chuàng)新,都在從他們的視角產(chǎn)生新想法,沒準兒某一天某行業(yè)某個人想出一個奇特的應(yīng)用場景,所以我覺得形成應(yīng)用商店是遲早的事情。
高飛:那我們有信心了,開發(fā)出一個媒體大模型應(yīng)用出來。
(2)談大模型與小模型:要通才,也要專家
高飛:有些ToB用戶會有疑問說,大模型的應(yīng)用應(yīng)該怎么開發(fā),如何把大模型的通用理解能力解耦出來,產(chǎn)生一種混合大模型或私有大模型?就像云領(lǐng)域的混合云和私有云。
蔣鎰?wù)洌?/strong>這肯定存在。首先真正的能叫得上大模型的,目前只有一個OpenAI的GPT,GPT-4叫大模型,GPT-3.5都有點弱。
但通用模型有個問題,因為它學(xué)的知識大都是泛泛的、通用的東西,這就導(dǎo)致很難完全對應(yīng)到垂直領(lǐng)域。你讓一個人熟讀百書什么都懂,和一個行業(yè)專家放在一起,它的語料非常不一樣。所以你不可能要求一個通用大模型是全才,在各行各業(yè)都是專家,這對于它來說太難了。
所以垂直大模型絕對會存在,垂直大模型有可能還能細分,比如醫(yī)療行業(yè)都能細分出一大堆,偏向不同傾向的模型。
劉大鴻:拿我們公司的創(chuàng)業(yè)實踐來看,很多企業(yè)找我們想做一個自己的企業(yè)模型,比如說集團公司,它內(nèi)部的資料非常多,覺得搜索起來很麻煩,就想要開發(fā)一個模型,像ChatGPT一樣,只要向它提問,它就能回答對應(yīng)的內(nèi)部資料內(nèi)容。
這件事不好做(要是好做,我估計都能做20個客戶了),但為什么難做?因為當我們訓(xùn)練模型時,發(fā)現(xiàn)如果沒有大模型的語言能力,訓(xùn)練出來的東西它不會說話。
后來我有一個結(jié)論,這個結(jié)論可能對,也可能不對。在目前階段,一個垂直模型很難脫離大模型之外獨立成型,小模型或垂直模型是依附大模型的一個產(chǎn)物,它仍然要有基于大模型的語言能力。今天的大模型是Large Language Model,本質(zhì)上還是語言模型,垂直模型很難有這種語言能力(它可能有內(nèi)核訓(xùn)練出來,目前我們的解決方案就是這么訓(xùn)練的)。所以,垂直模型一定是未來的大趨勢,這是第一點。
第二,未來每一個在互聯(lián)網(wǎng)向外輸出內(nèi)容的企業(yè)和個人,他們或許都會有模型。五六年前我看過一本書,講人工智能算法的,說到了模型的概念,說未來是一個模型社會,每個人、每個企業(yè)都有模型。比如員工去公司面試,其實是員工的模型和這家公司的模型先進行了交互,覺得OK了,員工的肉身再去面試。我覺得這個設(shè)想是成立的。
像是在互聯(lián)網(wǎng)上活躍的每個人,或者是一些消費者,都可能會形成各自的模型。今天的數(shù)字人背后,未來都會是一個小模型。我就在訓(xùn)練我的模型,訓(xùn)練好以后,我去抖音上,一邊是我另一邊是他,我們不停的對話,讓他接受我的思想,讓他越來越像我,他們也可以去學(xué)一些新東西,我覺得這是完全有可能的。
未來的大模型,包括百度的文心一言、阿里的通義千問、OpenAI的ChatGPT,它們已經(jīng)云化了,我覺得大模型就是云。企業(yè)或個人有很多的數(shù)據(jù),有的數(shù)據(jù)是私有的,無法向大模型去投喂。所以我覺得未來要出一些協(xié)議,什么樣的數(shù)據(jù)是大模型“允許采集的”和“不允許采集的”,什么樣的數(shù)據(jù)要通過加密算法、然后去脫敏、再去投喂給它(模型)等等,我覺得有非常多的空間可以做。但是我堅信的是,未來會有垂直模型,甚至個人會有模型。
(3)談大模型之上的超級應(yīng)用
高飛:我們還想探討的是,如果說99%的應(yīng)用都是基于ChatGPT開發(fā)的,那么這些應(yīng)用是否還有成長的潛力?其實TikTok某種程度上來說,是基于移動平臺之上長出來的一個應(yīng)用,所以大模型未來是否會長出一個超級巨頭出來?
陳煉:一定能。大模型本質(zhì)上會讓草根創(chuàng)業(yè)變得更難,它會形成更有優(yōu)勢的壟斷。大模型依賴強大的數(shù)據(jù)、算力,這其實是好多公司無法達到的,所以它的壟斷更容易。
蔣鎰?wù)洌?/strong>有點難說。因為ChatGPT在我看來它是個工具,OpenAI自己可能也在苦惱,“大家跟我的工具聊天,我也賺不了多少錢”,所以在它內(nèi)部已經(jīng)看到了一些外圍的應(yīng)用,不管是感知上、信息獲取、還是應(yīng)用場景,ChatGPT實際上是很難全打通的,而這個權(quán)利是握在創(chuàng)業(yè)者手上的,所以硅谷的創(chuàng)業(yè)基本上都是在ChatGPT之上干點什么小事兒。
我也希望看到大模型之上,能讓開發(fā)者在上面做應(yīng)用,這件事遲早會發(fā)生。但要說這上面能不能長出一個巨大的應(yīng)用,一個應(yīng)用把什么事都干了,目前還看不太清楚,因為現(xiàn)在是百花齊放的狀態(tài)。
劉大鴻:我覺得一定會的,原因很簡單,今天的大模型一定會成為智能云,目前基于阿里云誕生的、用阿里云服務(wù)的公司有很多,美國很多公司都用亞馬遜云科技,這很正常。
今天我們來看整個生態(tài),OpenAI的月活已經(jīng)達到10億,我認為這不僅僅是它本身做得好,而是AI技術(shù)的突破,讓獲取AI能力的成本一下子降得非常低。所以巨頭的敵人可能不是這些挑戰(zhàn)者,而是到了某個時間一定會突然出現(xiàn),然后巨頭就會被替代掉或被遺忘掉。
我去拜訪微軟時,學(xué)到一個詞叫“單位智能(Unit Intelligence)”,這個詞是OpenAI創(chuàng)始人Sam Altman和LinkedIn聯(lián)合創(chuàng)始人Reid Hoffman在一次訪談中提到的,當你獲取單位智能的費用和資源是之前的千分之一時,你作為個人、企業(yè)愿意為智能付費的意愿增加一千倍的時候,你把這兩個事情乘在一起,就是10的6次方 (一百萬倍),你要思考的是這個事情就在發(fā)生,即使在你的行業(yè)還沒有發(fā)生,那么很快它就會發(fā)生。
當你是一個個人、一個產(chǎn)品團隊、一個組織、一個公司或者整個國家,當你的手中有10的6次方的單位智能時,你可以想象這個世界會變成什么樣?所以我認為在未來的1-2年,會看到有一個新東西出來,快速成長成為一個巨頭,這是毋庸置疑的事情。
于千城:我認為一定是能的,原因有兩個。第一,大模型不會跳出Gartner技術(shù)成熟度曲線,也就是會有一個泡沫期,大家都蜂擁而上,最后跌落低谷,那么最后堅持下來的一定成為真正的主宰者。
第二,這東西它現(xiàn)在畢竟還不是生產(chǎn)力,造工具的企業(yè)一定很難親自把這個工具用到生產(chǎn)領(lǐng)域,因為它不懂生產(chǎn),不能跟各行各業(yè)相結(jié)合,所以終究會有一個大巨頭出來,把工具變成生產(chǎn)力,來推動社會發(fā)展。
高飛:我覺得很難。蘋果是一個硬件公司,所以它對于開發(fā)太復(fù)雜的應(yīng)用,其實沒有那么大野心。而OpenAI是一個互聯(lián)網(wǎng)公司,尤其是國內(nèi)這些互聯(lián)網(wǎng)公司做大模型,其實有很強的做應(yīng)用的沖動,比如阿里有釘釘,騰訊有騰訊會議,所以巨頭會不會把空間留出來,我要打個問號。我倒不是說不可能有巨頭應(yīng)用出現(xiàn),而是,是否存在這樣一個市場空間的問題。
(4)大模型值得讓“大部分行業(yè)”都再做一遍
高飛:前一陣子,陸奇在奇績創(chuàng)壇有個論斷被刷屏了,他說大模型值得讓所有行業(yè)都重新再做一遍,你們怎么看待這個問題?
劉大鴻:這對“大部分行業(yè)”應(yīng)該是成立的,只是會有個先后順序。數(shù)字經(jīng)濟領(lǐng)域一定是先開始,慢慢再延伸到制造業(yè)、電商、外貿(mào)等,我覺得不是每個公司都會去做大模型,但每個公司一定都會有自己的模型。
但再做一遍的方式是什么?ChatGPT出現(xiàn)之后,人機交互的方式發(fā)生了根本性變化(就像從諾基亞到iPhone一樣),以后所有產(chǎn)品的交互方式都會是以Chat為主。
未來,所有行業(yè)交互的效率,也會從過去的復(fù)雜方式變?yōu)樽詣踊?、智能化,這會是所有行業(yè)變化的“點”,由于交互方式發(fā)生了變化,所以效率革命一定會推動所有行業(yè)再做一遍。
陳煉:現(xiàn)在的AI看上去很智能,但其實智力是很弱的,它是基于量變引起質(zhì)變的、基于數(shù)據(jù)權(quán)重的一個隨機智能算法產(chǎn)物,它其實并沒有真實的思考能力。但如果有一天,AI真能達到人的主動性思考能力時,確實需要去按照人工智能的方式再做一遍。
【Part 3】大模型是不是有血型?
(1)論大模型的自我修養(yǎng)
高飛:接下來我們來探討一個內(nèi)在問題,我們會發(fā)現(xiàn),跟大模型交流起來,它還挺有道德修養(yǎng)的,甚至有政治正確的敏感性,這是如何修煉出來的?
陳煉:主要看數(shù)據(jù)的基因和后天的培養(yǎng)。首先,當訓(xùn)練數(shù)據(jù)本身具有政治正確性的時候,那么這個模型就會表現(xiàn)出政治正確性。其次,用一些技術(shù)手段來增強模型的道德和政治正確性,比如在算法上加一些規(guī)則和約束,來避免大模型產(chǎn)生偏見和歧視性的文本。
(2)AI分不分本地人?
高飛:各國都在做大模型,道德規(guī)范都不一樣,以后是否會進化出不同血型的大模型?就像我們各個民族一樣,每個國家都有自己種族的大模型?
陳煉:我覺得不太會。大模型很像是一個操作系統(tǒng),大家在使用Windows操作系統(tǒng)時,如果發(fā)現(xiàn)系統(tǒng)崩潰了,就提交一個報告上去,微軟那邊就修復(fù)系統(tǒng)的一個Bug。所以,用的人越來越多,提交的Bug也會越來越多,Windows打的補丁也越來越多,系統(tǒng)就會越來越完善。
同理,大模型在使用過程中,訓(xùn)練方也會用數(shù)據(jù)訓(xùn)練數(shù)據(jù),但是它存在一個問題,就是不同國家、不同區(qū)域的人使用的大模型其實是被全球壟斷的,全球的通用大模型其實只有那么幾個,當全球人在用這些大模型的時候,只會在完善這些大模型,但是并不會衍生出不同血型的大模型。就像操作系統(tǒng)一樣,全球也只有幾個操作系統(tǒng)。
除非是垂直領(lǐng)域,每個領(lǐng)域都有自己的模型,肯定會隨著當?shù)厥褂萌说牧晳T不同,訓(xùn)練數(shù)據(jù)的不同,而造就出不同的垂直模型。
蔣鎰?wù)洌?/strong>如果是通用大模型,基本上是被頂部兩三個玩家給壟斷了。做應(yīng)用的,肯定會挑通用能力更強的,弱一點就不會被選,生態(tài)也會督促頂部的幾個模型存活下來,所以大模型不會有各國的血型。
劉大鴻:我覺得一定會。就像字典,全球有名的字典是有限的,但是用有限的字典寫無限的文章的人太多了。所以最后一定會誕生出各種各樣的、不同特征的大模型。
現(xiàn)階段,我覺得文心一言、ChatGPT的回答不好玩,我們?nèi)祟愒诹奶鞎r是有非常豐富的情緒、情感、表情的,但是大模型現(xiàn)在還做不到,我覺得以后一定會出來,哪天我去訓(xùn)練一個會說人話的大模型出來。
于千城:我覺得一定會。第一,大模型不僅僅是一個生產(chǎn)力技術(shù),它對社會的影響是革命性的,所以文化、政治、軍事等方方面面都會受到影響。第二,人其實是喜歡當造物主的,好不容易造出一個硅基生命,自然也會想要把它做的更豐富,人類一定會朝這個方向努力。
高飛:插個題外話,大模型時代,巨頭都在快馬加鞭的布局,唯獨騰訊沒有動靜,騰訊是不是掉隊了?
劉大鴻:小馬哥在網(wǎng)上有個講話,說“我們不急于去造燈泡”,這就對應(yīng)到之前業(yè)界有個比喻說“大模型像電力革命一樣”,所以如果大模型是電廠,那么我們生產(chǎn)產(chǎn)品的公司就是造電器的。
騰訊現(xiàn)在為什么還不著急?我有次跟騰訊的一個核心工程師吃飯,聽他講公司內(nèi)部在做混元大模型,以及在應(yīng)用層面上的一些想法,聽到后面我連飯都沒心思吃了,就想著趕緊回去干活,因為我覺得,如果騰訊的產(chǎn)品推出,市場上很多產(chǎn)品就沒有存在的價值了。所以我認為騰訊并沒有閑著,而是會一步邁到應(yīng)用產(chǎn)品。
(3)大模型時代下,創(chuàng)業(yè)者還能做什么
高飛:如果說未來中國有自己的大模型,國外有國外的大模型,那么國內(nèi)與海外對大模型領(lǐng)域投資邏輯的本質(zhì)差別在哪里?
于千城:我覺得國外公司從技術(shù)儲備、到投資的遠瞻性,要遠遠超乎我們的想象。國內(nèi)很多都在說,美國主要把大模型放在C端,但是我相信他們在B端應(yīng)該已經(jīng)做了很多沉淀,只不過沒有把它公布出來。
國內(nèi)應(yīng)該是有實力跟美國叫板,因為互聯(lián)網(wǎng)紅利見頂之后,大家還是有創(chuàng)新需求,AI正好給了大家這樣一個機會,跟元宇宙技術(shù)結(jié)合起來,前途會比較清晰,所以每個公司都會在這上面發(fā)力,資本市場當然也不會落后。
所以我的觀點是,現(xiàn)在也沒法談?wù)l好誰壞,兩個國家肯定都在發(fā)力。只不過我們對美國的認識可能不清晰,真實的差距到底多大,其實我們不清楚。
劉大鴻:國內(nèi)在大模型領(lǐng)域的投資,相比于美國來看,我覺得還是差很遠,完全不在一個量級上,它的創(chuàng)新速度以及產(chǎn)品迭代速度遠超國內(nèi)。我甚至感覺我們是給國外大模型做宣傳的,國內(nèi)媒體比較發(fā)達,事實上做的人還是非常少。
陳煉:國外可能更偏重長期的價值投資,不管是特斯拉,還是OpenAI,他們都是投資了10年8年才開始有回報。但國內(nèi)可能更偏向于短期效益,兩三年之內(nèi)是不是能實現(xiàn)盈利,能不能有流水,有多少活躍用戶,可能更偏向于這些。
所以現(xiàn)在的垂直大模型非常高效,因為它一訓(xùn)練出來立馬就能見效,比如醫(yī)療模型搞一個大前端都能掙錢。
蔣鎰?wù)洌?/strong>確實美國的創(chuàng)新能力很強,中國離人家的距離還很遠,比如大模型這一波的投資。美國的好多投資你不用看什么回報,誰知道哪一天才能回來呢,它更大的野心很有可能很長遠,我們沒辦法想那么遠。
高飛:夢想總要有的,我們的生活也要繼續(xù),總要做點什么事情。如果從總要做點事情的角度,基于大模型這一代,你們接下來想干點啥?
于千城:對于我們初創(chuàng)公司而言,訓(xùn)練模型、微調(diào)模型這些路數(shù)基本上是不可能的,所以我們現(xiàn)在的主要工作,就是用本地知識庫,把客戶的數(shù)據(jù)變成本地的知識,輔助大模型來做垂直應(yīng)用。
我們在夾縫當中,只能先讓客戶接觸到這種大模型工具,哪怕它不夠準確,但是類似于做市場教育,讓大家都知道這個時代已經(jīng)到來了。
蔣鎰?wù)洌?/strong>我完全跟于總站在同一條戰(zhàn)線上,因為咱們做大模型壓根就沒戲,如果代價不高的話,做微調(diào)還是敢調(diào)的。實際上,行業(yè)客戶已經(jīng)被AI浪潮的風吹到躍躍欲試,而且看到AI確實有很多用處,所以機會縫兒是有的,至于機會到底有多大,我們先沖進去再說,在垂直領(lǐng)域先深耕一下。
陳煉:我們雖然是小公司,但是我們有兩臺A100服務(wù)器,也訓(xùn)練出來了醫(yī)生、律師等行業(yè)的垂直模型,部署了幾家出版社,都已經(jīng)商用。
但是我現(xiàn)在真正想做的產(chǎn)品是“誰是誰”,因為在大模型時代,AI可以克隆人的聲音、克隆人的視頻、產(chǎn)生很多垃圾信息,所以我們想把“真實的”和“AI的”做一個識別,到底誰是誰,這肯定是下一個會爆發(fā)的需求點。
劉大鴻:從去年開始,我們已經(jīng)在嘗試做個人助手,國外有一個對標產(chǎn)品叫“Pi”,我們做的是中國的Pi,只是我們比他們做的早一點。我們的產(chǎn)品叫“快秘書”,給每個人設(shè)計一個AI助手,同時也會給每個在網(wǎng)上輸出內(nèi)容和服務(wù)的個人做垂直模型,這個市場歡迎度比較高。
【嘉賓簡介】
主持人:
高飛,知名媒體人,至頂科技CEO兼總編輯,中國輕工業(yè)信息中心智慧生活產(chǎn)業(yè)促進中心副主任,中國上市公司協(xié)會信息與數(shù)字化委委員。他長期致力于數(shù)字經(jīng)濟、數(shù)字化轉(zhuǎn)型等方面的課題研究,參與撰寫了《中國云計算產(chǎn)業(yè)發(fā)展白皮書》等多份權(quán)威報告。作為知名科技策展人,其參與策劃的“世界智能大會”,是AI領(lǐng)域的首個國家級國際性會議。
對話嘉賓(排名不分先后順序):
蔣鎰?wù)洌?多年互聯(lián)網(wǎng)/AI經(jīng)驗,在Adobe, HP software負責過研發(fā)軟件產(chǎn)品,目前在初創(chuàng)VitallyAI任職CTO。最近主要關(guān)注大模型:文生文, 文生圖以及多模態(tài)的實際垂直市場的應(yīng)用。目前聚焦營銷/市場領(lǐng)域的AIGC應(yīng)用開發(fā)和服務(wù)。
于千城,寧夏云瑞致勝科技有限公司CEO,目前聚焦于AI大模型創(chuàng)業(yè),致力于服務(wù)垂直行業(yè)中小企業(yè)客戶。
陳煉,北京橙溪科技創(chuàng)始人,從事人工智能(大模型訓(xùn)練)、互聯(lián)網(wǎng)(出版社等等)、虛擬3D(虛擬辦公室)、區(qū)塊鏈(公網(wǎng)Dapp,Layer2)等研發(fā))。
劉大鴻,波特時空創(chuàng)始人。10億級AI數(shù)據(jù)預(yù)處理經(jīng)驗,互聯(lián)網(wǎng)科技領(lǐng)域連續(xù)創(chuàng)業(yè)者,分布式存儲算法發(fā)明專利發(fā)明人。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。
關(guān)注科技創(chuàng)新、技術(shù)投資。
以文會友,左手硬核科技,右手浪漫主義。