• 正文
    • █ CPU(中央處理器)
    • █ GPU(圖形處理器)
    • █ GPU與AI計算
  • 推薦器件
  • 相關(guān)推薦
申請入駐 產(chǎn)業(yè)圖譜

AI計算,為什么要用GPU?

2024/01/03
1983
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

今天這篇文章,我們繼續(xù)來聊聊芯片。

在之前的文章里,小棗君說過,行業(yè)里通常會把半導體芯片分為數(shù)字芯片和模擬芯片。其中,數(shù)字芯片的市場規(guī)模占比較大,達到70%左右。

數(shù)字芯片,還可以進一步細分,分為:邏輯芯片、存儲芯片以及微控制單元(MCU)。

存儲芯片和MCU以后再介紹,今天小棗君重點講講邏輯芯片

邏輯芯片,其實說白了就是計算芯片。它包含了各種邏輯門電路,可以實現(xiàn)運算與邏輯判斷功能,是最常見的芯片之一。

大家經(jīng)常聽說的CPU、GPU、FPGA、ASIC,全部都屬于邏輯芯片。而現(xiàn)在特別火爆的AI,用到的所謂“AI芯片”,也主要是指它們。

CPU(中央處理器)

先說說大家最熟悉的CPU,英文全稱Central Processing Unit,中央處理器

但凡是個人都知道,CPU是計算機的心臟。

現(xiàn)代計算機,都是基于1940年代誕生的馮·諾依曼架構(gòu)。在這個架構(gòu)中,包括了運算器(也叫邏輯運算單元,ALU)、控制器(CU)、存儲器、輸入設(shè)備、輸出設(shè)備等組成部分。

馮·諾依曼架構(gòu)

數(shù)據(jù)來了,會先放到存儲器。然后,控制器會從存儲器拿到相應(yīng)數(shù)據(jù),再交給運算器進行運算。運算完成后,再把結(jié)果返回到存儲器。

這個流程,還有一個更有逼格的叫法:“Fetch(取指)-Decode(譯碼)- Execute(執(zhí)行)-Memory Access(訪存)-Write Back(寫回)”。

大家看到了,運算器和控制器這兩個核心功能,都是由CPU負責承擔的。

具體來說,運算器(包括加法器、減法器、乘法器、除法器),負責執(zhí)行算術(shù)和邏輯運算,是真正干活的??刂破鳎撠煆膬?nèi)存中讀取指令、解碼指令、執(zhí)行指令,是指手畫腳的。

除了運算器和控制器之外,CPU還包括時鐘模塊和寄存器(高速緩存)等組件。

時鐘模塊負責管理CPU的時間,為CPU提供穩(wěn)定的時基。它通過周期性地發(fā)出信號,驅(qū)動CPU中的所有操作,調(diào)度各個模塊的工作。

寄存器是CPU中的高速存儲器,用于暫時保存指令和數(shù)據(jù)。它的CPU與內(nèi)存(RAM)之間的“緩沖”,速度比一般的內(nèi)存更快,避免內(nèi)存“拖累”CPU的工作。

寄存器的容量和存取性能,可以影響CPU到對內(nèi)存的訪問次數(shù),進而影響整個系統(tǒng)的效率。后面我們講存儲芯片的時候,還會提到它。

CPU一般會基于指令集架構(gòu)進行分類,包括x86架構(gòu)和非x86架構(gòu)。x86基本上都是復雜指令集(CISC),而非x86基本為精簡指令集(RISC)。

PC和大部分服務(wù)器用的是x86架構(gòu),英特爾AMD公司占據(jù)主導地位。非x86架構(gòu)的類型比較多,這些年崛起速度很快,主要有ARM、MIPS、Power、RISC-V、Alpha等。以后會專門介紹。

GPU(圖形處理器)

再來看看GPU。

GPU是顯卡的核心部件,英文全名叫Graphics Processing Unit,圖形處理單元(圖形處理器)。

GPU并不能和顯卡劃等號。顯卡除了GPU之外,還包括顯存、VRM穩(wěn)壓模塊、MRAM芯片、總線、風扇、外圍設(shè)備接口等。

1999年,英偉達NVIDIA)公司率先提出了GPU的概念。

之所以要提出GPU,是因為90年代游戲和多媒體業(yè)務(wù)高速發(fā)展。這些業(yè)務(wù)給計算機的3D圖形處理和渲染能力提出了更高的要求。傳統(tǒng)CPU搞不定,所以引入了GPU,分擔這方面的工作。

根據(jù)形態(tài),GPU可分為獨立GPU(dGPU,discrete/dedicated GPU)和集成GPU(iGPU,integrated GPU),也就是常說的獨顯、集顯

GPU也是計算芯片。所以,它和CPU一樣,包括了運算器、控制器和寄存器等組件。

但是,因為GPU主要負責圖形處理任務(wù),所以,它的內(nèi)部架構(gòu)和CPU存在很大的不同。

如上圖所示,CPU的內(nèi)核(包括了ALU)數(shù)量比較少,最多只有幾十個。但是,CPU有大量的緩存(Cache)和復雜的控制器(CU)。

這樣設(shè)計的原因,是因為CPU是一個通用處理器。作為計算機的主核心,它的任務(wù)非常復雜,既要應(yīng)對不同類型的數(shù)據(jù)計算,還要響應(yīng)人機交互。

復雜的條件和分支,還有任務(wù)之間的同步協(xié)調(diào),會帶來大量的分支跳轉(zhuǎn)和中斷處理工作。它需要更大的緩存,保存各種任務(wù)狀態(tài),以降低任務(wù)切換時的時延。它也需要更復雜的控制器,進行邏輯控制和調(diào)度。

CPU的強項是管理和調(diào)度。真正干活的功能,反而不強(ALU占比大約5%~20%)。

如果我們把處理器看成是一個餐廳的話,CPU就像一個擁有幾十名高級廚師的全能型餐廳。這個餐廳什么菜系都能做,但是,因為菜系多,所以需要花費大量的時間協(xié)調(diào)、配菜,上菜的速度相對比較慢。

而GPU則完全不同。

GPU為圖形處理而生,任務(wù)非常明確且單一。它要做的,就是圖形渲染。圖形是由海量像素點組成的,屬于類型高度統(tǒng)一、相互無依賴的大規(guī)模數(shù)據(jù)。

所以,GPU的任務(wù),是在最短的時間里,完成大量同質(zhì)化數(shù)據(jù)的并行運算。所謂調(diào)度和協(xié)調(diào)的“雜活”,反而很少。

并行計算,當然需要更多的核啊。

如前圖所示,GPU的內(nèi)核數(shù),遠遠超過CPU,可以達到幾千個甚至上萬個(也因此被稱為“眾核”)。

GPU的核,稱為流式多處理器(Stream Multi-processor,SM),是一個獨立的任務(wù)處理單元。

在整個GPU中,會劃分為多個流式處理區(qū)。每個處理區(qū),包含數(shù)百個內(nèi)核。每個內(nèi)核,相當于一顆簡化版的CPU,具備整數(shù)運算和浮點運算的功能,以及排隊和結(jié)果收集功能。

GPU的控制器功能簡單,緩存也比較少。它的ALU占比,可以達到80%以上。

雖然GPU單核的處理能力弱于CPU,但是數(shù)量龐大,非常適合高強度并行計算。同等晶體管規(guī)模條件下,它的算力,反而比CPU更強。

還是以餐廳為例。GPU就像一個擁有成千上萬名初級廚師的單一型餐廳。它只適合做某種指定菜系。但是,因為廚師多,配菜簡單,所以大家一起炒,上菜速度反而快。

GPU與AI計算

大家都知道,現(xiàn)在的AI計算,都在搶購GPU。英偉達也因此賺得盆滿缽滿。為什么會這樣呢?

原因很簡單,因為AI計算和圖形計算一樣,也包含了大量的高強度并行計算任務(wù)。

深度學習是目前最主流的人工智能算法。從過程來看,包括訓練(training)和推理(inference)兩個環(huán)節(jié)。

在訓練環(huán)節(jié),通過投喂大量的數(shù)據(jù),訓練出一個復雜的神經(jīng)網(wǎng)絡(luò)模型。在推理環(huán)節(jié),利用訓練好的模型,使用大量數(shù)據(jù)推理出各種結(jié)論。

訓練環(huán)節(jié)由于涉及海量的訓練數(shù)據(jù),以及復雜的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),所以需要的計算規(guī)模非常龐大,對芯片的算力性能要求比較高。而推理環(huán)節(jié),對簡單指定的重復計算和低延遲的要求很高。

它們所采用的具體算法,包括矩陣相乘、卷積、循環(huán)層、梯度運算等,分解為大量并行任務(wù),可以有效縮短任務(wù)完成的時間。

GPU憑借自身強悍的并行計算能力以及內(nèi)存帶寬,可以很好地應(yīng)對訓練和推理任務(wù),已經(jīng)成為業(yè)界在深度學習領(lǐng)域的首選解決方案。

目前,大部分企業(yè)的AI訓練,采用的是英偉達的GPU集群。如果進行合理優(yōu)化,一塊GPU卡,可以提供相當于數(shù)十其至上百臺CPU服務(wù)器的算力。

不過,在推理環(huán)節(jié),GPU的市場份額占比并沒有那么高。具體原因我們后面會講。

將GPU應(yīng)用于圖形之外的計算,最早源于2003年。

那一年,GPGPU(General Purpose computing on GPU,基于GPU的通用計算)的概念首次被提出。意指利用GPU的計算能力,在非圖形處理領(lǐng)域進行更通用、更廣泛的科學計算。

GPGPU在傳統(tǒng)GPU的基礎(chǔ)上,進行了進一步的優(yōu)化設(shè)計,使之更適合高性能并行計算。

2009年,斯坦福的幾位學者,首次展示了利用GPU訓練深度神經(jīng)網(wǎng)絡(luò)的成果,引起了轟動。

幾年后,2012年,神經(jīng)網(wǎng)絡(luò)之父杰弗里·辛頓(Geoffrey Hinton)的兩個學生——亞歷克斯·克里切夫斯基(Alex Krizhevsky)、伊利亞·蘇茨克沃(Ilya Sutskever),利用“深度學習+GPU”的方案,提出了深度神經(jīng)網(wǎng)絡(luò)AlexNet,將識別成功率從74%提升到85%,一舉贏得Image Net挑戰(zhàn)賽的冠軍。

這徹底引爆了“AI+GPU”的浪潮。英偉達公司迅速跟進,砸了大量的資源,在三年時間里,將GPU性能提升了65倍。

除了硬剛算力之外,他們還積極構(gòu)建圍繞GPU的開發(fā)生態(tài)。他們建立了基于自家GPU的CUDA(Compute Unified Device Architecture)生態(tài)系統(tǒng),提供完善的開發(fā)環(huán)境和方案,幫助開發(fā)人員更容易地使用GPU進行深度學習開發(fā)或高性能運算。

這些早期的精心布局,最終幫助英偉達在AIGC爆發(fā)時收獲了巨大的紅利。目前,他們市值高達1.22萬億美元(英特爾的近6倍),是名副其實的“AI無冕之王”。

那么,AI時代的計算,是不是GPU一家通吃呢?我們經(jīng)常聽說的FPGA和ASIC,好像也是不錯的計算芯片。它們的區(qū)別和優(yōu)勢在哪里呢?

敬請期待下集:《到底什么是ASIC和FPGA》

參考文獻:

1、《一文搞懂GPU的概念、工作原理》,開源LINUX;2、《AI芯片架構(gòu)體系綜述》,知乎,Garvin Li;3、《GPU、FPGA、ASIC加速器有什么區(qū)別?》,知乎,胡說漫談;4、《帶你深入了解GPU、FPGA和ASIC》,汽車產(chǎn)業(yè)前線觀察;5、《為什么GPU是AI時代的算力核心》,沐曦集成電路;6、《一文通覽自動駕駛三大主流芯片架構(gòu)》,數(shù)字化轉(zhuǎn)型;7、《AIGC算力全景與趨勢報告》,量子位;8、百度百科、維基百科。

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊 ECAD模型 風險等級 參考價格 更多信息
DSPIC33EP512MU810-I/PT 1 Microchip Technology Inc 16-BIT, FLASH, 60 MHz, MICROCONTROLLER, PQFP100, 12 X 12 MM, 1 MM HEIGHT, LEAD FREE, PLASTIC, TQFP-100
$10.04 查看
STM32H750VBT6 1 STMicroelectronics High-performance and DSP with DP-FPU, Arm Cortex-M7 MCU with 128 Kbytes of Flash memory, 1MB RAM, 480 MHz CPU, L1 cache, external memory interface, JPEG codec, HW crypto, large set of peripherals

ECAD模型

下載ECAD模型
$27.62 查看
FT230XS-R 1 FTDI Chip Microprocessor Circuit, CMOS, PDSO16,

ECAD模型

下載ECAD模型
$2.26 查看

相關(guān)推薦

登錄即可解鎖
  • 海量技術(shù)文章
  • 設(shè)計資源下載
  • 產(chǎn)業(yè)鏈客戶資源
  • 寫文章/發(fā)需求
立即登錄

通信行業(yè)知名新媒體鮮棗課堂創(chuàng)始人,通信行業(yè)資深專家、行業(yè)分析師、自媒體作者,《智聯(lián)天下:移動通信改變中國》叢書作者。通信行業(yè)13年工作經(jīng)驗,曾長期任職于中興通訊股份有限公司,從事2/3/4G及5G相關(guān)技術(shù)領(lǐng)域方面的研究,曾擔任中興通訊核心網(wǎng)產(chǎn)品線產(chǎn)品經(jīng)理、能力提升總監(jiān)、中興通訊學院二級講師、中興通訊高級主任工程師,擁有豐富的行業(yè)經(jīng)驗和積累。