• 正文
    • 18倍增長,EPYC的AI進階之路!
    • 20倍能效新目標,AMD EPYC提供核芯動力
    • EPYC助力構建高效、靈活的未來AI基礎設施
  • 相關推薦
申請入駐 產(chǎn)業(yè)圖譜

從DeepSeek高效推理到20倍能效進擊:AMD EPYC定義AI算力新路徑

原創(chuàng)
5小時前
277
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

AI正深刻驅動著各領域的創(chuàng)新浪潮。借助AI的力量,各行各業(yè)能夠顯著提升運營效率、降低成本并塑造超高生產(chǎn)力的未來工作模式。不過,AI系統(tǒng)的成功部署與高效運行,其核心支撐在于底層基礎設施——它往往是AI技術棧中最易被低估,卻又最為關鍵的一環(huán)。特別是隨著DeepSeek等生成式AI模型的崛起及其應用的普及,AI工作負載變得更加多樣和復合化,這要求基礎設施的戰(zhàn)略定位更加清晰、更具落地性。

在剛剛舉辦的AMD Advancing AI 2025大會期間,AMD發(fā)布了全面的端到端AI平臺愿景,并展示了全新的開放、可擴展的人工智能基礎設施產(chǎn)品。其中,EPYC對AMD未來的AI愿景具有非常重要的意義。

18倍增長,EPYC的AI進階之路!

EPYC堪稱AMD歷史上最成功的產(chǎn)品系列之一,經(jīng)歷了數(shù)代產(chǎn)品的相繼更迭,EPYC將“CPU的AI進化之路”展現(xiàn)在業(yè)界面前。

根據(jù)AMD分享的 EPYC處理器市場份額的增長情況,從2018年2%到2024年36%,實現(xiàn)了18倍的飆升——四年間從邊緣玩家躍居行業(yè)核心,占據(jù)約三分之一市場份額,這種增幅在寡頭壟斷的服務器芯片市場堪稱奇跡。頭部客戶名單覆蓋了云服務巨頭、數(shù)字企業(yè)、企業(yè)和OEM廠商,進一步佐證了市場份額的堅實有力。

回顧EPYC的開疆拓土,特別是在AI領域的發(fā)展,可以說第四、第五代EPYC以通用計算重塑推理效能,對AI發(fā)展和AMD自身的產(chǎn)品迭代都具有重要的意義。面對復合型AI負載的挑戰(zhàn),AMD第四代、第五代EPYC處理器展現(xiàn)了出色的適應性與效率,成為構建務實AI基礎設施的理想選擇。

具體而言,第四代EPYC能夠在AI推理方面脫穎而出,主要得益于其先進的架構和創(chuàng)新的設計?;赯en 4架構的AMD EPYC處理器“Genoa”,采用了先進的5nm工藝,最多可達到96核心192線程,配備了12通道DDR5內(nèi)存和160條PCIe 5.0總線。更大的內(nèi)存總線,可以令更多數(shù)據(jù)在內(nèi)存中進行快速加載,從而有效減少因數(shù)據(jù)傳輸而造成的時延;更多的PCIe總線意味著在單臺服務器上可以接入更多AI計算板卡,能夠提供更高密度的AI算力。

值得一提的是,第四代AMD EPYC處理器還引入了對AI/ML應用程序至關重要的DDR5內(nèi)存和第五代PCIe,還有3D V-Cache技術的加持,進一步增強了第四代AMD EPYC處理器的多任務處理能力,并有效降低了延遲?。

正是憑借這種高并發(fā)核心設計,AMD第四代EPYC全面覆蓋了碎片化的推理場景,成為AI推理服務器的主流選擇。特別是在金融風控、工業(yè)設備診斷等眾多場景,通過極致能效和專用指令集與架構優(yōu)化,凸顯了高并發(fā)處理能力,為用戶提供了良好體驗。

如果說第四代EPYC為AI大模型推理應用奠定了堅實的基礎,那么第五代EPYC則進一步實現(xiàn)飛躍,能夠幫助用戶實現(xiàn)更高效的推理,更充分地滿足各類AI工作負載的需求,并適應不同模型大小。

第五代EPYC基于Zen 5架構,對AI的支撐能力更上一層樓。相比Zen 4,Zen 5核心架構不僅提供多達17%的更高每時鐘指令數(shù)(IPC),還能為AI和HPC提供高達37%的更高IPC,從而提升了AI部署的洞察時間和部署速度。比如,192核的EPYC可為端到端AI工作負載提供更高的性能,在Meta Llama 3.1-8B的中小型企業(yè)級生成式AI模型中,其吞吐量性能具有顯著優(yōu)勢。

20倍能效新目標,AMD EPYC提供核芯動力

在Advancing AI 2025上,AMD宣布已經(jīng)超越了在2021年制定的30x25目標:即從2020年到2025年將AI訓練和高性能計算(HPC)節(jié)點的能效提高30倍。

這意味著,與過去五年(2015-2020年)的行業(yè)趨勢相比,能效提升2.5倍以上。截至 2025 年中,AMD已超越這一目標,正是通過AMD GPU和第五代AMD EPYC CPU的配置,相較基準系統(tǒng)實現(xiàn)38倍的能效提升。與五年前的系統(tǒng)相比,這相當于在相同性能下能耗降低97%。

下一步,隨著人工智能規(guī)模的不斷擴大,以及邁向真正的端到端的全AI系統(tǒng)設計,AMD比以往任何時候都更需要繼續(xù)保持在節(jié)能設計領域的領先地位。

AMD高級副總裁兼企業(yè)院士Samuel Naffziger指出,AMD將目光投向一個大膽的新目標:以2024年為基準,到2030年,將用于AI訓練和推理的機架級能效提升20倍,使目前需要超過275個機架的典型AI模型到2030年只需在一個機架內(nèi)即可完成訓練,耗電量減少95%。而結合軟件和算法方面的進步,新的目標可使整體能效提升高達100倍。

根據(jù)AMD最新的設計和路線圖預測,這反映了整個機架的每瓦性能提升,包括 CPU、GPU、內(nèi)存、網(wǎng)絡、存儲和軟硬件協(xié)同設計。這種從節(jié)點到機架的轉變,其實得益于AMD快速發(fā)展的端到端AI戰(zhàn)略,也是以更可持續(xù)的方式擴展數(shù)據(jù)中心AI的關鍵。

Samuel Naffziger強調(diào),隨著工作負載規(guī)模和需求的持續(xù)增長,節(jié)點級效率提升將無法跟上步伐,最顯著的效率影響可以在系統(tǒng)級實現(xiàn),而這正是AMD 2030年目標的重點,也是AMD在AI時代的新目標。

EPYC助力構建高效、靈活的未來AI基礎設施

構建AI基礎設施沒有放之四海皆準的方案,過度依賴昂貴的專用加速器(如某些GPU)可能導致投資浪費和利用率低下,尤其當許多AI任務(特別是中小型推理負載或嵌入業(yè)務流的功能)完全能在強大的CPU上高效運行時,對于能源、效率、成本都是巨大的節(jié)約。

這些都與AMD EPYC 處理器的價值主張相契合,放眼未來,在AMD機架級的能效目標中,新一代以及未來幾代EPYC將繼續(xù)保持能效比(性能/瓦特)優(yōu)勢,助力降低數(shù)據(jù)中心能耗,實現(xiàn)更綠色、高密度的計算解決方案。

至于企業(yè)如何規(guī)劃、部署未來的AI基礎設施?IDC給出的建議是:第一,通過替換過時服務器在數(shù)據(jù)中心騰出空間,因為長遠來看,改造過時服務器成本高昂,而新的服務器通常不僅能力更強,而且通常效率更高;第二,采用私有或混合云策略處理虛擬化、容器化和裸機工作負載,這有助于確保每個 AI 工作負載都匹配到合適的基礎設施堆棧;第三,通過選擇合適類型的處理器 (CPU) 優(yōu)化協(xié)處理器(加速器)投資,可以避免加速器資源利用不足或利用不均的情況。

正因具備強大的通用處理能力、領先的能效比以及對AI加速的優(yōu)化支持,AMD EPYC處理器能夠高效驅動DeepSeek等大模型的推理負載, 助力企業(yè)在無需大規(guī)模新建基礎設施的前提下,高效、靈活地擁抱以DeepSeek等模型為代表的生成式AI趨勢,最大化AI投資價值。

AMD

AMD

AMD公司成立于1969年,總部位于美國加利福尼亞州桑尼維爾。AMD(NYSE: AMD)是一家創(chuàng)新的科技公司,致力于與客戶及合作伙伴緊密合作,開發(fā)下一代面向商用、家用和游戲領域的計算和圖形處理解決方案。

AMD公司成立于1969年,總部位于美國加利福尼亞州桑尼維爾。AMD(NYSE: AMD)是一家創(chuàng)新的科技公司,致力于與客戶及合作伙伴緊密合作,開發(fā)下一代面向商用、家用和游戲領域的計算和圖形處理解決方案。收起

查看更多

相關推薦

登錄即可解鎖
  • 海量技術文章
  • 設計資源下載
  • 產(chǎn)業(yè)鏈客戶資源
  • 寫文章/發(fā)需求
立即登錄