迅雷與小米公司正式進軍CDN(Content Delivery Network,即內(nèi)容分發(fā)網(wǎng)絡(luò))市場。日前,雙方聯(lián)手發(fā)布CDN行業(yè)品牌項目“星域”。
從左至右:迅雷CEO鄒勝龍,小米科技創(chuàng)始人、首席執(zhí)行官雷軍,迅雷首席技術(shù)官、網(wǎng)心科技首席執(zhí)行官陳磊
迅雷方面將CDN定位成互聯(lián)網(wǎng)最后一個高毛利行業(yè),迅雷首席技術(shù)官、網(wǎng)心科技首席執(zhí)行官陳磊宣稱,“星域”從冰點價格出擊,自此結(jié)束暴利時代,按合理、高體驗、低利潤的路子走。
迅雷CEO鄒勝龍表示,星域非常有可能突破今天傳統(tǒng)CDN行業(yè),從B2B的批量采購和零售模式,實現(xiàn)商業(yè)模式向C2B、P2B的延伸,小米、愛奇藝、戰(zhàn)旗、完美世界等都會參與進來。
在這樣的商業(yè)模式下,雙方將借助星域部署一個以云為中心,覆蓋PC端、移動端和用戶客廳端的生態(tài)系統(tǒng),小米手機、小米電視、小米盒子等其他智能產(chǎn)品都將以“端”的形式呈現(xiàn)。
作為迅雷第一大股東,小米科技創(chuàng)始人、首席執(zhí)行官雷軍十分看好該產(chǎn)品。“很多人問我為什么投資迅雷,之前大家認為我們在投下載,投迅雷的會員業(yè)務(wù),在投迅雷看看,其實我們真正看好的就是他們發(fā)布的‘星域’。”雷軍透露,從構(gòu)思到推上臺面,迅雷花了一年半時間醞釀星域,結(jié)合十年技術(shù)積累,目標是把閑置的帶寬資源、計算資源、存儲資源全部連接在一起,然后提供給需要的人。
按照雷軍的理解,星域就好比IDC行業(yè)的Uber。具體而言,星域的做法是采取“云+端”模式,用戶通過迅雷路由器“賺錢寶”,分享自家閑置帶寬,獲取收益。迅雷和小米作則通過貢獻星域CDN技術(shù)、終端智能生態(tài)鏈整合利用資源,以謀取長足發(fā)展;第三方企業(yè)通過使用星域,降低流量成本,獲得更快速流暢的網(wǎng)絡(luò)傳輸,再將產(chǎn)品和服務(wù)返還給用戶。
雷軍認為,智能手機地快速發(fā)展將推動云服務(wù)的爆發(fā)式增長。雷軍透露,小米后臺數(shù)據(jù)顯示,每年用戶數(shù)據(jù)量的增長達600%,小米云服務(wù)數(shù)據(jù)量超過100P。不斷增加的數(shù)據(jù)讓雷軍產(chǎn)生一個疑問,“在這個市場里面有沒有可能成為一個巨大的臺風口?經(jīng)過反復論證,我們的推斷是,未來十年時間,一定會產(chǎn)生一大批的巨頭企業(yè)起來。”
看到這個趨勢以后,雷軍也有一些小擔心,“在巨頭控制下的互聯(lián)網(wǎng)市場,我們能不能夠脫穎而出?”
因此,雙方去年下定決心,一定要在云服務(wù)市場立足。
據(jù)介紹,星域按照流量計費模式,價格0.1元/GB;按帶寬計費模式,售價9999元/G/月。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務(wù)上驗證有效性。