CNET科技行者 8月24日 北京消息(文/周雅):繼6月20日奧斯汀發(fā)布會之后,AMD昨天正式將全套EPYC 7000系列數(shù)據(jù)中心處理器家族帶到中國。
整場發(fā)布會的重頭戲,是包括騰訊、京東、百度、聯(lián)想、曙光等十余家產(chǎn)業(yè)鏈合作伙伴帶著產(chǎn)品和合作成果為AMD站臺點贊,仿佛臺上的AMD重返巔峰,可見中國市場將是AMD復(fù)興之路的一個重要陣地,當然更是一個考驗——曾在巔峰時刻,AMD服務(wù)器最高市場占有率達到27%。
可見,圍繞EPYC(霄龍)處理器進一步擴大產(chǎn)業(yè)鏈合作,是AMD打開中國市場的一個策略。
比如,騰訊、百度、京東的站臺就能代表互聯(lián)網(wǎng)市場和云計算市場對EPYC的認可,當然同樣能代表這兩個市場的阿里巴巴也是AMD的合作伙伴。
實際上,騰訊此前已經(jīng)在自身的數(shù)據(jù)中心小規(guī)模部署一批采用EPYC(霄龍)CPU的服務(wù)器,而京東和百度也直接表態(tài),下半年開始陸續(xù)部署EPYC服務(wù)器產(chǎn)品。
當然,EPYC也覆蓋了OEM市場:與AMD合作逾15年的曙光這次帶來9款服務(wù)器新品,全部基于EPYC平臺,涵蓋工作站、機架、刀片、整機柜服務(wù)器,面向高性能計算、云計算、大數(shù)據(jù)分析和深度學習等應(yīng)用;聯(lián)想、惠普、戴爾、宏碁、華碩五大PC廠商也在跟進EPYC的產(chǎn)品規(guī)劃,聯(lián)想將與AMD、Hyperscale共同開發(fā)與部署單插槽和雙插槽的EPYC。
發(fā)布會一大亮點,是多次被提及的人工智能應(yīng)用,EPYC一大性能,是機器學習。一個重磅消息隨之公布,AMD與百度將成立GPU技術(shù)聯(lián)合實驗室,推進GPU在人工智能技術(shù)的演進。
雙方將共同測試、評估和優(yōu)化AMD的Radeon Instinct加速器,在需求分析、性能優(yōu)化、定制化開發(fā)等多方面密切合作,探索將AMD GPU技術(shù)應(yīng)用于百度數(shù)據(jù)中心,助力百度人工智能戰(zhàn)略的落地。
顯而易見的是,在人工智能領(lǐng)域的落地層面,少不了中美大量的企業(yè)、機構(gòu)、研究者積極投身于人工智能技術(shù)的研究和商業(yè)化。但鮮為人知的是,據(jù)公開資料顯示,近幾年人工智能開始大爆發(fā),很大一部分是由于GPU的廣泛應(yīng)用,使得并行計算變得更快、更便宜、更有效,再加上無限拓展的存儲能力和驟然爆發(fā)的大數(shù)據(jù)這兩個組合拳,也使得圖像數(shù)據(jù)、文本數(shù)據(jù)、交易數(shù)據(jù)、映射數(shù)據(jù)全面爆發(fā)。
資料還顯示,傳統(tǒng)的通用CPU之所以不適合人工智能算法的執(zhí)行,主要原因在于其計算指令遵循串行執(zhí)行的方式,沒能發(fā)揮出芯片的全部潛力,相較而言,GPU具有高并行結(jié)構(gòu),在處理圖形數(shù)據(jù)和復(fù)雜算法方面擁有比CPU更高的效率。對比GPU和CPU在結(jié)構(gòu)上的差異,CPU大部分面積為控制器和寄存器,而GPU擁有更多的ALU(ARITHMETIC LOGIC UNIT,邏輯運算單元)用于數(shù)據(jù)處理,這樣的結(jié)構(gòu)適合對密集型數(shù)據(jù)進行并行處理。CPU執(zhí)行計算任務(wù)時,一個時刻只處理一個數(shù)據(jù),不存在真正意義上的并行,而GPU具有多個處理器核,在一個時刻可以并行處理多個數(shù)據(jù)。程序在GPU系統(tǒng)上的運行速度相較于單核CPU往往提升幾十倍乃至上千倍。 因此,面向通用計算的GPU已成為加速可并行人工智能應(yīng)用程序的重要手段。
而AMD Radeon Instinct正在推動真正的新一代異構(gòu)計算。AMD近日推出的Radeon Instinct MI25、MI8和MI6加速器,結(jié)合AMDROCm 1.6軟件平臺(包括優(yōu)化的MIOpen框架庫),提高了性能、效率和易實施性,加速深度學習推理和工作負載培訓等。這些加速器能夠滿足范圍廣泛的機器智能應(yīng)用,包括在學術(shù)、政府實驗室、能源、生命科學、金融、汽車和其他行業(yè)的以數(shù)據(jù)為中心的HPC級系統(tǒng)。
從這兩個角度看,AMD與百度的GPU技術(shù)聯(lián)合實驗室,顯得既恰逢其實又有的放矢。
彩蛋,附全套EPYC 7000系列數(shù)據(jù)中心處理器家族性能一覽:
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務(wù)上驗證有效性。
關(guān)注科技創(chuàng)新、技術(shù)投資。
以文會友,左手硬核科技,右手浪漫主義。