學(xué)習(xí)啦 > 學(xué)習(xí)電腦 > 電腦硬件知識(shí) > CPU知識(shí) > CPU、GPU、DSP、NPU到底哪個(gè)更適用于深度學(xué)習(xí)

CPU、GPU、DSP、NPU到底哪個(gè)更適用于深度學(xué)習(xí)

時(shí)間: 文輝886 分享

CPU、GPU、DSP、NPU到底哪個(gè)更適用于深度學(xué)習(xí)

  CPU、GPU、DSP、NPU,到底哪個(gè)更適用于深度學(xué)習(xí)?下面將由學(xué)習(xí)啦小編帶大家來(lái)解答這個(gè)疑問(wèn)吧,希望對(duì)大家有所收獲!

  CPU、GPU:用轎車(chē)運(yùn)貨

  在英偉達(dá)開(kāi)發(fā)出針對(duì)人工智能的定制GPU,并堅(jiān)持DGX-1 系統(tǒng)之后,Intel也不甘落后,在收購(gòu)深度學(xué)習(xí)創(chuàng)業(yè)公司 Nervana Systems之后,Intel也公布了用于深度學(xué)習(xí)的Xeon Phi家族新成員,在深度學(xué)習(xí)處理器領(lǐng)域開(kāi)辟新戰(zhàn)場(chǎng)。

  在不久前,Intel還發(fā)布了一些Xeon Phi 的基準(zhǔn)測(cè)試結(jié)果,其聲稱(chēng)內(nèi)容總結(jié)如下:

  1、四片 Knights Landing Xeon Phi 芯片比四片 GPU要快 2.3 倍;

  2、在多節(jié)點(diǎn)系統(tǒng)中, Xeon Phi 芯片的能比 GPU 更好地?cái)U(kuò)展38% ;

  3、128 塊 Xeon Phi 的服務(wù)器組成的系統(tǒng)要比單塊 Xeon Phi 服務(wù)器快 50 倍,暗示著 Xeon Phi 服務(wù)器的擴(kuò)展性相當(dāng)好;

  4、使用Intel優(yōu)化版的 Caffe 深度學(xué)習(xí)框架時(shí),Xeon Phi 芯片要比標(biāo)準(zhǔn) Caffe 實(shí)現(xiàn)快 30 倍。

  一言蔽之,Intel的眾核芯片在深度學(xué)習(xí)上比英偉達(dá)的GPU更為高效。

  不過(guò),英偉達(dá)也隨之反擊,聲稱(chēng)這是Intel使用了其舊的基準(zhǔn)測(cè)試結(jié)果,并表示:

  1、如果英特爾使用更新一點(diǎn)的 Caffe AlexNet 實(shí)現(xiàn)結(jié)果的話(huà),它就會(huì)發(fā)現(xiàn)四塊上代英偉達(dá) Maxwell GPU 實(shí)際上比四塊英特爾 Xeon Phi 服務(wù)器集群快 30%。

  2、另外,一旦英偉達(dá)的 GPU 從 28nm 的平面工藝轉(zhuǎn)移到 16nm 的 FinFET 工藝上時(shí),GPU的性能和效率還會(huì)有很大的提升。

  3、對(duì)于深度學(xué)習(xí),英偉達(dá)還強(qiáng)調(diào)更少的高性能節(jié)點(diǎn)無(wú)論如何都會(huì)比更多低性能節(jié)點(diǎn)好。并以其最新的 DGX-1為例,認(rèn)為DGX-1比 21 個(gè) Xeon Phi 服務(wù)器集群快一點(diǎn),比四個(gè) Xeon Phi 服務(wù)器集群快 5.3 倍。

  筆者認(rèn)為,Intel的眾核芯片也在一定程度上吸取了GPU的優(yōu)勢(shì),性能不俗,但短時(shí)間看還是GPU有優(yōu)勢(shì)。不過(guò),無(wú)論是針對(duì)人工智能的眾核芯片還是定制版的GPU,本質(zhì)上都不是專(zhuān)用處理器,實(shí)際上是拿現(xiàn)有的、相對(duì)成熟的架構(gòu)和技術(shù)成果去應(yīng)對(duì)新生的人工智能,并沒(méi)有發(fā)生革命性的技術(shù)突破。

  其實(shí),Intel和英偉達(dá)是在使用現(xiàn)有的比較成熟的技術(shù)去滿(mǎn)足深度學(xué)習(xí)的需求,眾核芯片和定制版GPU在本質(zhì)上來(lái)說(shuō)依舊是CPU和GPU,而并非專(zhuān)門(mén)針對(duì)深度學(xué)習(xí)的專(zhuān)業(yè)芯片,這就必然帶來(lái)一些天生的不足。打一個(gè)比方,用眾核芯片和GPU跑深度學(xué)習(xí),就類(lèi)似于用轎車(chē)去拉貨,受轎車(chē)自身特點(diǎn)的限制,貨物運(yùn)輸能力與真正大馬力、高負(fù)載的貨車(chē)有一定差距。同理,即便是因?yàn)榧夹g(shù)相對(duì)更加成熟,Intel和英偉達(dá)的芯片在集成度和制造工藝上具有優(yōu)勢(shì),但由于CPU、GPU并非針對(duì)深度學(xué)習(xí)的專(zhuān)業(yè)芯片,相對(duì)于專(zhuān)業(yè)芯片,其運(yùn)行效率必然受到一定影響。

  | DSP:和真正神經(jīng)網(wǎng)絡(luò)芯片有差距

  6月20日,中星微“數(shù)字多媒體芯片技術(shù)”國(guó)家重點(diǎn)實(shí)驗(yàn)室在京宣布,中國(guó)首款嵌入式NPU(神經(jīng)網(wǎng)絡(luò)處理器)芯片誕生,目前已應(yīng)用于全球首款嵌入式視頻處理芯片“星光智能一號(hào)”。

  媒體稱(chēng),“星光智能一號(hào)蘊(yùn)含了當(dāng)前計(jì)算機(jī)領(lǐng)域最前沿的生物人腦神經(jīng)網(wǎng)絡(luò)仿生學(xué)創(chuàng)新技術(shù),且對(duì)嚴(yán)重依賴(lài)國(guó)外進(jìn)口產(chǎn)品的中國(guó)集成電路產(chǎn)業(yè)來(lái)說(shuō),也是實(shí)現(xiàn)‘彎道超車(chē)’的一次踴躍嘗試。它標(biāo)志著我國(guó)在神經(jīng)網(wǎng)絡(luò)處理器領(lǐng)域的研究和開(kāi)發(fā)上取得了重大突破;使我國(guó)視頻監(jiān)控行業(yè)發(fā)展由模擬時(shí)代、數(shù)字時(shí)代跨入智能時(shí)代,在全球確立領(lǐng)先地位。”

  不過(guò),在經(jīng)過(guò)仔細(xì)分析后,所謂“中國(guó)首款嵌入式神經(jīng)網(wǎng)絡(luò)處理器”很有可能是一款可以運(yùn)行神經(jīng)網(wǎng)絡(luò)的DSP,而非真正意義的神經(jīng)網(wǎng)絡(luò)專(zhuān)用芯片。

  上圖是星光智能一號(hào)發(fā)布的系統(tǒng)架構(gòu)圖。

  共包含四個(gè)NPU核,每個(gè)NPU核包含4個(gè)內(nèi)核,每個(gè)內(nèi)核有兩個(gè)流處理器(Dataflow Processor),每個(gè)流處理器具有8個(gè)長(zhǎng)位寬或16位寬的SIMD運(yùn)算單元。每個(gè)NPU核的峰值性能為38Gops(16位定點(diǎn))或者76Gops(8位定點(diǎn))。除了多核流處理器本身用于完成卷積運(yùn)算外,星光智能一號(hào)集成了一個(gè)超長(zhǎng)指令字(VLIW)處理器用于完成神經(jīng)網(wǎng)絡(luò)中的超越函數(shù)等運(yùn)算。另有256KB的L2Cache以及DMA模塊用于大塊數(shù)據(jù)的搬移。

  從其低位寬的定點(diǎn)運(yùn)算器推斷,星光智能一號(hào)僅可支持神經(jīng)網(wǎng)絡(luò)正向運(yùn)算,無(wú)法支持神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。從片上存儲(chǔ)結(jié)構(gòu)看,星光智能一號(hào)基于傳統(tǒng)的片上緩存(Cache),而非像最近流行的神經(jīng)芯片或FPGA方案一樣使用便簽式存儲(chǔ)。因此,在技術(shù)上看星光智能一號(hào)是典型的“舊瓶裝新酒”方案,將傳統(tǒng)的面向數(shù)字信號(hào)處理的DSP處理器架構(gòu)用于處理神經(jīng)網(wǎng)絡(luò),主要在運(yùn)算器方面作了相應(yīng)修改,例如低位寬和超越函數(shù),而并非是“狹義的”神經(jīng)網(wǎng)絡(luò)專(zhuān)用處理器,如IBM的“真北”芯片。

  因此,星光智能一號(hào)其實(shí)是DSP,而非NPU,能夠適用于卷積神經(jīng)網(wǎng)路(CNN),而對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)等處理語(yǔ)音和自然語(yǔ)言的網(wǎng)絡(luò)有可能就無(wú)能為力了。

  換言之,星光智能一號(hào)暫時(shí)只面向機(jī)器視覺(jué)任務(wù),而不能用于語(yǔ)音和自然語(yǔ)言類(lèi)的問(wèn)題。其實(shí),這種用傳統(tǒng)SIMD/DSP架構(gòu)來(lái)適配神經(jīng)網(wǎng)絡(luò)的技術(shù)思想在國(guó)際上已有不少先例,甚至有成熟的產(chǎn)品,例如CEVA公司的XM4處理器、Cadence公司的Tensilica Vision P5處理器、Synopsys公司的EV處理器等。

  | NPU:為深度學(xué)習(xí)而生的專(zhuān)業(yè)芯片

  從技術(shù)角度看,深度學(xué)習(xí)實(shí)際上是一類(lèi)多層大規(guī)模人工神經(jīng)網(wǎng)絡(luò)。它模仿生物神經(jīng)網(wǎng)絡(luò)而構(gòu)建,由若干人工神經(jīng)元結(jié)點(diǎn)互聯(lián)而成。神經(jīng)元之間通過(guò)突觸兩兩連接,突觸記錄了神經(jīng)元間聯(lián)系的權(quán)值強(qiáng)弱。

  每個(gè)神經(jīng)元可抽象為一個(gè)激勵(lì)函數(shù),該函數(shù)的輸入由與其相連的神經(jīng)元的輸出以及連接神經(jīng)元的突觸共同決定。為了表達(dá)特定的知識(shí),使用者通常需要(通過(guò)某些特定的算法)調(diào)整人工神經(jīng)網(wǎng)絡(luò)中突觸的取值、網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)等。該過(guò)程稱(chēng)為“學(xué)習(xí)”。在學(xué)習(xí)之后,人工神經(jīng)網(wǎng)絡(luò)可通過(guò)習(xí)得的知識(shí)來(lái)解決特定的問(wèn)題。

  由于深度學(xué)習(xí)的基本操作是神經(jīng)元和突觸的處理,而傳統(tǒng)的處理器指令集(包括x86和ARM等)是為了進(jìn)行通用計(jì)算發(fā)展起來(lái)的,其基本操作為算術(shù)操作(加減乘除)和邏輯操作(與或非),往往需要數(shù)百甚至上千條指令才能完成一個(gè)神經(jīng)元的處理,深度學(xué)習(xí)的處理效率不高。因此谷歌甚至需要使用上萬(wàn)個(gè)x86 CPU核運(yùn)行7天來(lái)訓(xùn)練一個(gè)識(shí)別貓臉的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。因此,傳統(tǒng)的處理器(包括x86和ARM芯片等)用于深度學(xué)習(xí)的處理效率不高,這時(shí)就必須另辟蹊徑——突破經(jīng)典的馮·諾伊曼結(jié)構(gòu)。

  以中國(guó)的寒武紀(jì)為例,DianNaoYu指令直接面對(duì)大規(guī)模神經(jīng)元和突觸的處理,一條指令即可完成一組神經(jīng)元的處理,并對(duì)神經(jīng)元和突觸數(shù)據(jù)在芯片上的傳輸提供了一系列專(zhuān)門(mén)的支持。

  另外,神經(jīng)網(wǎng)絡(luò)中存儲(chǔ)和處理是一體化的,都是通過(guò)突觸權(quán)重來(lái)體現(xiàn)。 而馮·諾伊曼結(jié)構(gòu)中,存儲(chǔ)和處理是分離的,分別由存儲(chǔ)器和運(yùn)算器來(lái)實(shí)現(xiàn),二者之間存在巨大的差異。當(dāng)用現(xiàn)有的基于馮·諾伊曼結(jié)構(gòu)的經(jīng)典計(jì)算機(jī)(如X86處理器和英偉達(dá)GPU)來(lái)跑神經(jīng)網(wǎng)絡(luò)應(yīng)用時(shí),就不可避免地受到存儲(chǔ)和處理分離式結(jié)構(gòu)的制約,因而影響效率。這也就是專(zhuān)門(mén)針對(duì)人工智能的專(zhuān)業(yè)芯片能夠?qū)鹘y(tǒng)芯片有一定先天優(yōu)勢(shì)的原因之一。

  用數(shù)字來(lái)說(shuō)話(huà),CPU、GPU與NPU相比,會(huì)有百倍以上的性能或能耗比差距——以寒武紀(jì)團(tuán)隊(duì)過(guò)去和Inria聯(lián)合發(fā)表的DianNao論文為例——DianNao為單核處理器,主頻為0.98GHz,峰值性能達(dá)每秒4520億次神經(jīng)網(wǎng)絡(luò)基本運(yùn)算,65nm工藝下功耗為0.485W,面積3.02平方毫米mm。

  在若干代表性神經(jīng)網(wǎng)絡(luò)上的實(shí)驗(yàn)結(jié)果表明——

  DianNao的平均性能超過(guò)主流CPU核的100倍,但是面積和功耗僅為1/10,效能提升可達(dá)三個(gè)數(shù)量級(jí);

  DianNao的平均性能與主流GPGPU相當(dāng),但面積和功耗僅為主流GPGPU百分之一量級(jí)。

  | 結(jié)語(yǔ)

  就現(xiàn)階段而言,傳統(tǒng)芯片廠商(如CPU、GPU和DSP)對(duì)于深度學(xué)習(xí)市場(chǎng)非常重視,因此利用他們巨大體量和市場(chǎng)推廣、銷(xiāo)售能力,大力推廣用這些傳統(tǒng)芯片來(lái)進(jìn)行深度學(xué)習(xí)處理,其本質(zhì)上也是對(duì)現(xiàn)有的技術(shù)進(jìn)行微調(diào),用傳統(tǒng)SIMD架構(gòu)來(lái)適配神經(jīng)網(wǎng)絡(luò)。

  然而,由于傳統(tǒng)CPU、GPU和DSP本質(zhì)上并非以硬件神經(jīng)元和突觸為基本處理單元,相對(duì)于NPU在深度學(xué)習(xí)方面天生會(huì)有一定劣勢(shì),在芯片集成度和制造工藝水平相當(dāng)?shù)那闆r下,其表現(xiàn)必然遜色于NPU。

1710511