2015百度聯(lián)盟峰會今日召開,李彥宏在會上分析了中國經(jīng)濟未來的兩種結(jié)局。“某種意義上中國互聯(lián)網(wǎng)的發(fā)展代表了中國的發(fā)展,中國要向哪里去?中國的結(jié)局是什么?我認(rèn)為最終的結(jié)局有兩種可能性。
以下是他演講的部分實錄:
我對整個產(chǎn)業(yè)處在什么發(fā)展階段需要再次做一個判斷,大幕拉開,第一幕已經(jīng)結(jié)束。也就是pc互聯(lián)網(wǎng)的時代已經(jīng)結(jié)束。
第二幕是移動互聯(lián)網(wǎng),現(xiàn)在正是令人興奮,很多高潮也有很多不確定性的階段。這一幕還會持續(xù)多久?我不知道。但已經(jīng)有人問我,下一幕是什么?我們明年峰會再講。
今天我想講的,最終的結(jié)局會是什么?這對我們每一個人更加重要。我覺得有兩種可能性。先講第一種:傳統(tǒng)產(chǎn)業(yè)依靠互聯(lián)網(wǎng)平臺獲得生意獲得利潤。
十年前,我們討論互聯(lián)網(wǎng),就覺得中國互聯(lián)網(wǎng)懂產(chǎn)品的人很少,所以我們通常姚參考的是美國或者韓國有些什么東西。那時候整個中國互聯(lián)網(wǎng)從業(yè)者就幾十萬人,很多優(yōu)秀的人沒有進入到這個領(lǐng)域。
而今天可能是幾千萬人的規(guī)模上相互競爭。今天面臨的產(chǎn)業(yè)格局是非常不一樣的。今天我們隨便跟那個行業(yè)的人聊天,都想問互聯(lián)網(wǎng)+怎么樣?今天的互聯(lián)網(wǎng)是一個完全不同規(guī)模的東西。
今天7億多網(wǎng)民的概念其實是中國互聯(lián)網(wǎng)滲透率超過50%。某種意義上中國互聯(lián)網(wǎng)的發(fā)展代表了中國的發(fā)展。中國要向哪里去?中國的結(jié)局是什么?
2011年聯(lián)盟峰會的時候,我講了兩個機會,一個是讀圖時代,一個是中間應(yīng)用。后者就是各行各業(yè)垂直平臺,本質(zhì)是某一個垂直行業(yè)打造一個平臺,這個趨勢現(xiàn)在越來越明顯。隨著移動互聯(lián)網(wǎng)產(chǎn)生,本質(zhì)都是通過自己平臺把線下某一個行業(yè)的主要商家吸引到這個平臺上。只有做某個行業(yè)的平臺,才能拿到投資,培養(yǎng)用戶習(xí)慣。每一個行業(yè)通常是多個這樣的平臺在占領(lǐng)這個行業(yè)。
而整合趨勢會使這些平臺更加強大,問一個問題,若干年后,每一個行業(yè)都產(chǎn)生強大垂直平臺時,會不會使得傳統(tǒng)公司都給這些平臺打工?所以最終中國經(jīng)濟會不會是幾個通用平臺,剩下的都是垂直平臺,傳統(tǒng)產(chǎn)業(yè)都在這些平臺上活動,依靠他們獲得生意獲得利潤。是不是有這種可能性?如果這種情況出現(xiàn),對中國整體是好還是不好?這是我們需要花精力去思考的。
最主流的產(chǎn)業(yè)其實是教育、醫(yī)療、金融、汽車喝房產(chǎn),他們代表中國經(jīng)濟支柱,他們現(xiàn)在都在擁抱互聯(lián)網(wǎng),并且處在迷茫,他們?nèi)绻€不知道怎么參與?那么將來其前景堪憂。
而未來第二種結(jié)局,可能真的是傳統(tǒng)產(chǎn)業(yè)找到提升自己的正確方式。以上兩種哪一個是主流?我們拭目以待。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟大學(xué)團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。