作者 | 金旺
來源 | 科技行者
近日,在MWC 2025前夕,英特爾正式對外發(fā)布了兩款至強6系列處理器新品——英特爾至強6700/6500性能核處理器。
早在2024年,英特爾至強系列處理器首次對外區(qū)分能效核和性能核,并發(fā)布了英特爾至強6700能效核處理器和英特爾至強6900性能核處理器。
相較于去年英特爾發(fā)布的兩款至強6系列處理器,此次發(fā)布的是從16核到86核的中端至強6系列處理器,是更適合主流數(shù)據(jù)中心應(yīng)用的產(chǎn)品,也是英特爾目標(biāo)服務(wù)于傳統(tǒng)企業(yè)包括數(shù)據(jù)庫、邊緣計算、AI應(yīng)用等更廣泛應(yīng)用的處理器產(chǎn)品。
英特爾臨時聯(lián)合首席執(zhí)行官兼英特爾產(chǎn)品首席執(zhí)行官Michelle Johnston Holthaus,“英特爾深耕數(shù)據(jù)中心市場數(shù)十余年,并通過x86 架構(gòu)引領(lǐng)標(biāo)準(zhǔn)制定和行業(yè)發(fā)展,目前,英特爾的處理器正為絕大多數(shù)數(shù)據(jù)中心提供動力。”
作為長期在商用服務(wù)器領(lǐng)域占據(jù)主導(dǎo)地位的X86服務(wù)器關(guān)鍵處理器,同時也是AI服務(wù)器的CPU機頭節(jié)點首選,此次至強6系列處理器新品面世,又將會為市場帶來怎樣的變化?
01 什么樣的CPU,更適合主流數(shù)據(jù)中心?
2023年,我國數(shù)字經(jīng)濟(jì)規(guī)模達(dá)到53.9萬億元,占GDP比重為42.8%,據(jù)中商產(chǎn)業(yè)研究院預(yù)測數(shù)據(jù)顯示,2024年我國數(shù)字經(jīng)濟(jì)占GDP比重將會進(jìn)一步增長至44.6%。
數(shù)字經(jīng)濟(jì)規(guī)模不斷擴(kuò)大,外加人工智能技術(shù)的爆發(fā),各行各業(yè)對新一代算力基礎(chǔ)設(shè)施都提出了更高的需求。
作為全球算力核心供應(yīng)商之一,英特爾在過去幾年里一直是數(shù)據(jù)中心CPU的主要玩家,這次英特爾至強6系列處理器產(chǎn)品的問世,一些新的特性也隨之更新。
首先是硬件性能更新。
英特爾至強6700/6500性能核處理器最高擁有86個核心、350W功率,相較于上一代產(chǎn)品,在企業(yè)工作負(fù)載中可以實現(xiàn)平均1.4倍的性能提升。
據(jù)英特爾官方透露,雖然此次發(fā)布的英特爾至強6700/6500性能核處理器核心數(shù)不是最多的,但是它的目標(biāo)更廣泛,是為了面對主流數(shù)據(jù)中心,更好地服務(wù)傳統(tǒng)企業(yè)數(shù)據(jù)中心廣泛應(yīng)用而設(shè)計,支持單路、雙路、4路,甚至8路服務(wù)器設(shè)計。
例如,相較于高核高密度計算的大芯片,英特爾至強6700/6500性能核處理器150W-350W的TDP(熱功耗)在內(nèi)存通道上同樣支持8個內(nèi)存通道配置,支持AMX加速技術(shù)。
其次是對人工智能技術(shù)的支持。
早在大模型興起之前,人工智能就已經(jīng)廣泛應(yīng)用在數(shù)據(jù)中心中,例如搜索、推薦引擎等應(yīng)用,很多國內(nèi)互聯(lián)網(wǎng)巨頭都在使用英特爾至強處理來支持相關(guān)業(yè)務(wù),這讓英特爾在過往這些年里積累了不少諸如AMX這樣的AI加速技術(shù),這些技術(shù)是如今英特爾面向人工智能時代的優(yōu)勢所在。
此外,據(jù)英特爾數(shù)據(jù)中心與AI集團(tuán)副總裁兼中國區(qū)總經(jīng)理陳葆立透露,“在GPU服務(wù)器中,機頭位置的CPU選擇至關(guān)重要,英特爾至強系列處理器一直以來都是AI服務(wù)器CPU機頭的首選,相較于市面上其他產(chǎn)品,至強6處理器在所需核心數(shù)減少三分之一的情況下,性能卻可以高出50%。”
什么是服務(wù)器的“機頭”?
所謂服務(wù)器的機頭是指計算機網(wǎng)絡(luò)中用于識別目標(biāo)服務(wù)器的重要組件, 它可以根據(jù)特定規(guī)則和協(xié)議判斷請求的目標(biāo)服務(wù)器地址,并將請求轉(zhuǎn)發(fā)給相應(yīng)的服務(wù)器,起到路由和轉(zhuǎn)發(fā)的作用。
陳葆立指出,“在處理大模型計算時,我們會關(guān)注提問后第一個回答的延遲時間,如果使用CPU處理,這一指標(biāo)將與內(nèi)存帶寬密切相關(guān)。”
為了滿足企業(yè)對于人工智能技術(shù)的普遍應(yīng)用需求,英特爾至強6系列處理器首次引入了內(nèi)存優(yōu)化技術(shù)——MRDIMM。
這也是英特爾面向更廣泛的企業(yè)應(yīng)用需求引入的一項新技術(shù)。
02 人工智能推理,英特爾的思路
如今的人工智能技術(shù)就像十年前的云計算技術(shù)一樣,已經(jīng)成為了這個時代的確定性,這其中,在以生成式AI、大模型為代表的人工智能技術(shù)進(jìn)入應(yīng)用階段后,AI推理的重要性逐漸凸顯。
在2024年年底的NeurIPS 2024大會上,OpenAI前首席科學(xué)家Ilya Sutskever就曾指出,“大模型預(yù)訓(xùn)練時代已經(jīng)結(jié)束,接下來更為重要的將會是智能體、推理、理解、自我意識推動的超級智能體。”
面對AI推理,CPU也就有了大用處。
英特爾技術(shù)專家指出,“我們發(fā)現(xiàn),在小于20B參數(shù)規(guī)模的模型中,用至強處理器做AI推理有很大的優(yōu)勢。”
對于20B以內(nèi)參數(shù)規(guī)模的大語言模型而言,在推理過程中,不僅會在生成首個token時需要進(jìn)行密集的計算,在后續(xù)大多數(shù)token推理中,對內(nèi)存帶寬也有很高的要求。
于是,英特爾在至強6系列處理器中引入了用于內(nèi)存優(yōu)化的MRDIMM技術(shù)。
什么是MRDIMM?
MRDIMM是多路復(fù)用雙列直插式內(nèi)存模組,可以在單個通道上組合和傳輸多個數(shù)據(jù)信號,從而在無需額外物理連接的前提下提升帶寬。
那么,這樣的MRDIMM有怎樣的魔力?
一個對比數(shù)據(jù)是,相比內(nèi)存速度在4800-5600MT/s的英特爾第五代至強處理器,英特爾至強6處理器的內(nèi)存速度已經(jīng)提升到了6400MT/s,而在引入MRDIMM后,這個速度可以進(jìn)一步被提升到8800MT/s。相較于當(dāng)下市面上部署的數(shù)據(jù)中心服務(wù)器,內(nèi)存速度提升達(dá)到50%以上。
除了MRDIMM,英特爾AMX是英特爾應(yīng)對人工智能技術(shù)另一項沉淀下來的重要技術(shù)。
大模型在2023年火遍全球之前,推薦引擎、自然語言處理、圖像處理、目標(biāo)識別等人工智能技術(shù)場景都得益于英特爾AMX技術(shù)加持下的英特爾至強處理器。
在端到端的業(yè)務(wù)流程中,無論是傳統(tǒng)的AI,還是現(xiàn)在的生成式AI,都對矢量數(shù)據(jù)庫搜索有需求,這些需求在實際行業(yè)部署中得益于英特爾至強內(nèi)置的AMX加速引擎,在同等核心數(shù)下,至強在矢量數(shù)據(jù)庫離線構(gòu)建索引表的過程中,性能相較行業(yè)中其他處理器提升了30%。
與此同時,人工智能技術(shù)的發(fā)展,也加大了企業(yè)對于安全性能的提升。
英特爾TDX是英特爾早在英特爾第四代至強處理器就已經(jīng)引入的安全計算技術(shù),它是一種基于硬件可信執(zhí)行環(huán)境來部署信任域,信任域是硬件隔離的虛擬機,旨在保護(hù)敏感數(shù)據(jù)和應(yīng)用程序免遭未經(jīng)授權(quán)的訪問。
在人工智能時代,異構(gòu)系統(tǒng)越來越普及,企業(yè)對安全計算技術(shù)提出了更高的需求,希望英特爾可以和其他加速卡生產(chǎn)商一起聯(lián)合構(gòu)建一個不僅包含CPU,同時還包含GPU的硬件防護(hù)體系,于是就有了英特爾至強6處理器引入的TDX Connect技術(shù)。
據(jù)英特爾技術(shù)專家解釋,“TDX Connect技術(shù)通過在系統(tǒng)中實現(xiàn)英特爾至強處理器和GPU的聯(lián)合協(xié)作,構(gòu)建一個整體的防護(hù)網(wǎng)。”
無論是放在CPU、業(yè)務(wù)入口上的數(shù)據(jù),還是運行在GPU上的模型參數(shù)和數(shù)據(jù),都能得到硬件防護(hù),這就是TDX Connect技術(shù)為安全領(lǐng)域帶來的一個顯著變化。
這個變化,正是人工智能時代數(shù)據(jù)保護(hù)所特別需要的。
03 至強6 SoC如何為運營商提升能效?
在人工智能浪潮中,各行各業(yè)都在進(jìn)行著悄然改變,這其中也包括網(wǎng)絡(luò)連接方式和運維方式。
就在前不久,面對DeepSeek席卷全球,以及隨之而來的一波人工智能的應(yīng)用爆發(fā),國內(nèi)三大運營商迅速完成了DeepSeek的接入。
中信證券在隨后的研報中指出,中國電信、中國聯(lián)通、中國移動三大運營商紛紛宣布全面接入DeepSeek,通過各自的平臺和資源實現(xiàn)了DeepSeek在多場景、多產(chǎn)品中的廣泛應(yīng)用,有望加速運營商云計算收入增長。
實際上,為了充分釋放下一代網(wǎng)絡(luò)連接技術(shù)的潛力,電信運營商正在積極采用網(wǎng)絡(luò)切片、AI驅(qū)動的無線控制器和云原生架構(gòu)等技術(shù),接入DeepSeek只是電信運營商面對當(dāng)下網(wǎng)絡(luò)技術(shù)環(huán)境的一個積極求變的縮影。
在此次發(fā)布會上,英特爾面向網(wǎng)絡(luò)和邊緣計算應(yīng)用也發(fā)布了一款英特爾至強6系統(tǒng)級芯片(SoC)。
據(jù)英特爾中國網(wǎng)絡(luò)與邊緣事業(yè)部總經(jīng)理阮伯超介紹稱,“這款系統(tǒng)級芯片整合了不同的加速器,以提供更高性能和能效,專門面向運營商網(wǎng)絡(luò)和邊緣應(yīng)用而設(shè)計。”
網(wǎng)絡(luò)與邊緣設(shè)備涉及的地區(qū)非常廣泛,需兼顧計算密度、連接性能、功耗限制與物理尺寸的約束,與此同時,它們通常分布在不同位置,需要考慮到傳輸過程中的安全性。
據(jù)悉,英特爾至強6系統(tǒng)級芯片整合了,擁有72個核心,整合和了各種加速器,以及英特爾至強6性能核處理器其它諸多特性,具體包括以下三方面:
第一,Webroot CSI上傳模型的推理速度大幅提升,相較于英特爾至強D-2899NT處理器,提升最高可達(dá)4.3倍;
第二,得益于vRAN Boost技術(shù),單核AI RAN性能比上一代提升3.2倍;
第三,在視頻邊緣服務(wù)器上,一個38核系統(tǒng)可同時支持多達(dá)38路攝像頭視頻流的int8推理。
據(jù)阮伯超透露,“英特爾至強6系統(tǒng)級芯片已經(jīng)被廣泛運用到運營商網(wǎng)絡(luò)以及網(wǎng)絡(luò)與邊緣當(dāng)中。”
以運算網(wǎng)絡(luò)為例,目前英特爾與諾基亞合作,基于英特爾至強6系統(tǒng)級芯片,諾基亞提升了70%的性能功耗比,幫助運營商提升了整體密度,帶來高達(dá)2.4倍的無線接入網(wǎng)工作負(fù)載容量提升。
除此以外,英特爾本次還發(fā)布了實現(xiàn)了帶寬翻倍、可以達(dá)到200GbE的吞吐量的以太網(wǎng)控制器E830和網(wǎng)絡(luò)適配器,以及增加了控制功能、提升了可管理性的以太網(wǎng)控制器E610和網(wǎng)絡(luò)適配器。
面對人工智能應(yīng)用涌現(xiàn)的這一年,這些也將成為英特爾為電信運營商備戰(zhàn)2025的新裝備。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。
關(guān)注智造、硬件、機器人。