CNET科技行者 8月24日 北京消息(文/周雅):繼6月20日奧斯汀發(fā)布會之后,AMD昨天正式將全套EPYC 7000系列數(shù)據(jù)中心處理器家族帶到中國。
整場發(fā)布會的重頭戲,是包括騰訊、京東、百度、聯(lián)想、曙光等十余家產(chǎn)業(yè)鏈合作伙伴帶著產(chǎn)品和合作成果為AMD站臺點贊,仿佛臺上的AMD重返巔峰,可見中國市場將是AMD復興之路的一個重要陣地,當然更是一個考驗——曾在巔峰時刻,AMD服務器最高市場占有率達到27%。
可見,圍繞EPYC(霄龍)處理器進一步擴大產(chǎn)業(yè)鏈合作,是AMD打開中國市場的一個策略。
比如,騰訊、百度、京東的站臺就能代表互聯(lián)網(wǎng)市場和云計算市場對EPYC的認可,當然同樣能代表這兩個市場的阿里巴巴也是AMD的合作伙伴。
實際上,騰訊此前已經(jīng)在自身的數(shù)據(jù)中心小規(guī)模部署一批采用EPYC(霄龍)CPU的服務器,而京東和百度也直接表態(tài),下半年開始陸續(xù)部署EPYC服務器產(chǎn)品。
當然,EPYC也覆蓋了OEM市場:與AMD合作逾15年的曙光這次帶來9款服務器新品,全部基于EPYC平臺,涵蓋工作站、機架、刀片、整機柜服務器,面向高性能計算、云計算、大數(shù)據(jù)分析和深度學習等應用;聯(lián)想、惠普、戴爾、宏碁、華碩五大PC廠商也在跟進EPYC的產(chǎn)品規(guī)劃,聯(lián)想將與AMD、Hyperscale共同開發(fā)與部署單插槽和雙插槽的EPYC。
發(fā)布會一大亮點,是多次被提及的人工智能應用,EPYC一大性能,是機器學習。一個重磅消息隨之公布,AMD與百度將成立GPU技術聯(lián)合實驗室,推進GPU在人工智能技術的演進。
雙方將共同測試、評估和優(yōu)化AMD的Radeon Instinct加速器,在需求分析、性能優(yōu)化、定制化開發(fā)等多方面密切合作,探索將AMD GPU技術應用于百度數(shù)據(jù)中心,助力百度人工智能戰(zhàn)略的落地。
顯而易見的是,在人工智能領域的落地層面,少不了中美大量的企業(yè)、機構、研究者積極投身于人工智能技術的研究和商業(yè)化。但鮮為人知的是,據(jù)公開資料顯示,近幾年人工智能開始大爆發(fā),很大一部分是由于GPU的廣泛應用,使得并行計算變得更快、更便宜、更有效,再加上無限拓展的存儲能力和驟然爆發(fā)的大數(shù)據(jù)這兩個組合拳,也使得圖像數(shù)據(jù)、文本數(shù)據(jù)、交易數(shù)據(jù)、映射數(shù)據(jù)全面爆發(fā)。
資料還顯示,傳統(tǒng)的通用CPU之所以不適合人工智能算法的執(zhí)行,主要原因在于其計算指令遵循串行執(zhí)行的方式,沒能發(fā)揮出芯片的全部潛力,相較而言,GPU具有高并行結構,在處理圖形數(shù)據(jù)和復雜算法方面擁有比CPU更高的效率。對比GPU和CPU在結構上的差異,CPU大部分面積為控制器和寄存器,而GPU擁有更多的ALU(ARITHMETIC LOGIC UNIT,邏輯運算單元)用于數(shù)據(jù)處理,這樣的結構適合對密集型數(shù)據(jù)進行并行處理。CPU執(zhí)行計算任務時,一個時刻只處理一個數(shù)據(jù),不存在真正意義上的并行,而GPU具有多個處理器核,在一個時刻可以并行處理多個數(shù)據(jù)。程序在GPU系統(tǒng)上的運行速度相較于單核CPU往往提升幾十倍乃至上千倍。 因此,面向通用計算的GPU已成為加速可并行人工智能應用程序的重要手段。
而AMD Radeon Instinct正在推動真正的新一代異構計算。AMD近日推出的Radeon Instinct MI25、MI8和MI6加速器,結合AMDROCm 1.6軟件平臺(包括優(yōu)化的MIOpen框架庫),提高了性能、效率和易實施性,加速深度學習推理和工作負載培訓等。這些加速器能夠滿足范圍廣泛的機器智能應用,包括在學術、政府實驗室、能源、生命科學、金融、汽車和其他行業(yè)的以數(shù)據(jù)為中心的HPC級系統(tǒng)。
從這兩個角度看,AMD與百度的GPU技術聯(lián)合實驗室,顯得既恰逢其實又有的放矢。
彩蛋,附全套EPYC 7000系列數(shù)據(jù)中心處理器家族性能一覽:
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質量,在多項測試中超越包括Sora在內的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質量樣本的訓練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡技術,通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。
關注科技創(chuàng)新、技術投資。
以文會友,左手硬核科技,右手浪漫主義。