《電子技術應用》
您所在的位置:首頁 > 電子元件 > 業界動態 > 從五個維度對比四種AI芯片

從五個維度對比四種AI芯片

2020-10-23
作者:老石談芯的老石
來源:半導體行業觀察
關鍵詞: 芯片 CPU GPU ASIC FPGA

  目前,全世界超過90%的數據都是在過去的兩三年之內產生的。隨著人工智能、自動駕駛、5G、云計算等各種技術的不斷發展,海量數據都將會繼續源源不斷的產生。預計到2025年,數據總量將比現在增長10倍。在這些技術的發展中,很大的一部分都基于對大數據的研究和分析。正因為如此,很多人就形象的將數據比喻為人工智能時代的石油。

  為了對海量的數據進行處理,基于傳統CPU的計算結構已經很難滿足需求了,我們需要更加強大的硬件和芯片,來更快、更好的完成這些工作。

  此外,我們也需要更好的方法,比如使用各種人工智能的算法和模型,來幫助我們進行數據的分析和處理,并得到有意義的結論。如果把這兩者結合起來,就產生了各種各樣的人工智能芯片。

微信圖片_20201023103223.png

  在這篇文章里,我們來一起看一下關于人工智能芯片的幾個有意思的事情。我想討論的重點,是在實際的工程實踐和應用場景里,如何對人工智能加速芯片進行合理的評價和選擇,以及各種不同的AI芯片的優缺點都有哪些。我會給大家介紹一個簡單的思維框架,幫助大家理解和思考。

  討論:一個前提條件

  在開始討論之前,我們首先要明確一些討論的前提條件,這些對于接下來的分析至關重要。很多人常犯的一個邏輯謬誤,就是在討論問題的時候缺少一個特定的討論范圍,這個英文叫做context,中文通常翻譯成語境,或者上下文。

  說白了,這個就是我們在討論問題的時候,要圈定一個討論的范圍,大家都在這個圈圈里討論問題。這就像拳擊或者格斗比賽一樣,要在那個擂臺上比拼,不能跑到臺下打。否則的話,就會像老郭和于大爺說的那樣:

  你和他講道理,他和你講法制;

  你和他講法制,他和你講政治;

  你和他講政治,他和你講國情;

  你和他講國情,他和你講文化;

  你和他講文化,他和你講道理……

微信圖片_20201023103228.jpg

  同樣的,對于我們要討論的人工智能芯片,其實有很多不同的應用領域。從這個角度來看,AI芯片可以分成移動端和服務器端兩大類,也有很多人把兩類稱為終端和云端。

  事實上,在這兩類應用中,人工智能芯片在設計要求上有著本質區別。比如,移動端更加注重AI芯片的低功耗、低延時、低成本,而部署在云端的AI芯片,可能會更加注重算力、擴展能力,以及它對現有基礎設施的兼容性等等。

  對于這兩類人工智能芯片,我們很難直接進行比較。這就好像一棵大樹,它的樹干負責支撐起這顆樹,并且還能輸送各種營養物質。它的樹葉就負責進行光合作用,并生產營養物質。但是我們很難比較樹干和樹葉,究竟誰更有用。

  在這篇文章里,我們要把討論的范圍縮小,只關注部署在服務器端的人工智能芯片的相關問題。

  此外,我們還需要明確一下具體討論哪些AI芯片。這篇文章將主要對比四種最常見的芯片:CPU、GPUASICFPGA。其他的一些相對小眾的芯片種類,比如類腦芯片和量子芯片等等,就不列入討論的范圍了。

  分析:一個思維框架

  我們現在明確了討論的領域和對象,也就是部署在服務器端的四種常見的芯片,接下來應該確定的是,通過什么樣的方式來衡量這些AI芯片的優缺點。

  在這里給大家介紹一個我們在工程實踐里經常使用的思維框架。具體來說,當我們考慮在數據中心里大量部署AI芯片的時候,通常需要考慮以下幾個重要的因素。

  首先就是算力,也就是芯片的性能。這里的性能有很多方面,比如這個芯片做浮點或者定點數運算的時候,每秒的運算次數,以及這個芯片的峰值性能和平均性能等等。

  但是,算力或者性能其實并不是衡量AI芯片好壞的唯一標準。事實上,在很多時候它甚至不是最重要的標準。那么,還有哪些考慮的因素呢?

  在這個思維框架里,一共有五個衡量因素。除了性能之外,還有靈活性、同構性、成本和功耗四點。

  其中,靈活性指的是這個AI芯片對不同應用場景的適應程度。也就是說,這個芯片能不能被用于各種不同的AI算法和應用。

  同構性指的是,當我們大量部署這個AI芯片的時候,我們能否重復的利用現有的軟硬件架構和資源,還是需要引入其他額外的東西。舉個簡單的例子,比如我的電腦要外接一個顯示器,如果這個顯示器的接口是HDMI,那么就可以直接連。但是如果這個顯示器的接口只有VGA或者DVI或者其他接口,那么我就要買額外的轉接頭才行。這樣,我們就說這個設備,也就是顯示器,它對我現有系統的同構性不好。

微信圖片_20201023103231.png

  成本和功耗就比較好理解了。成本指的就是錢和時間,當然如果細摳的話,還有投入的各種人力物力,以及沒有選擇其他芯片帶來的機會成本等等。不過歸根到底還是錢和時間。成本包含兩大部分,一部分是芯片的研發成本,另一部分是芯片的部署和運維成本。

  功耗就更好理解了,指的就是某種AI芯片對數據中心帶來的額外的功耗負擔。

  比較:4種芯片,5個維度

  現在我們知道了這個思維框架里的五個重要元素,那么我們就能對前面提到的四種芯片,也就是CPU、GPU、ASIC和FPGA做一個定性的比較了。這里聲明一下,這些對比僅代表我個人的觀點,也歡迎大家在留言里和我交流你的想法。

  CPU

  對于CPU來說,它仍然是數據中心里的主要計算單元。事實上,為了更好的支持各種人工智能應用,傳統CPU的結構和指令集也在不斷迭代和變化。

微信圖片_20201023103234.png

  比如,英特爾最新的Xeon可擴展處理器,就引入了所謂的DL Boost,也就是深度學習加速技術,來加速卷積神經網絡和深度神經網絡的訓練和推理性能。但是相比其他三種芯片,CPU的AI性能還是有一定差距。

  CPU最大的優勢就是它的靈活性和同構性。對于大部分數據中心來說,它們的各種軟硬件基礎設施都是圍繞CPU設計建設的。所以CPU在數據中心的部署、擴展、運維,包括生態其實都已經非常成熟了。它的功耗和成本不算太低,但也還在可接受的范圍內。

  GPU

  GPU有著大規模的并行架構,非常適合對數據密集型的應用進行計算和處理,比如深度學習的訓練過程。和CPU相比,GPU的性能會高幾十倍甚至上千倍。因此業界的很多公司,都在使用GPU對各種AI應用進行加速。

微信圖片_20201023103237.png

  GPU的另外一個優勢,是它有著比較成熟的編程框架,比如CUDA,或者OpenCL等等,這是GPU在AI領域得到爆發最直接的推動力量之一,也是GPU相比FPGA或者ASIC的最大優勢之一。

  但是,GPU的最大問題就是它的功耗。比如,英偉達的P100、V100和A100 GPU的功耗都在250W到400W之間。相比于FPGA或ASIC的幾十瓦甚至幾瓦的功耗而言,這個數字顯得過于驚人了。

  而對于神經網絡的訓練來說,它往往需要大量密集的GPU集群來提供充足的算力。這樣一來,一個機柜的功耗就可能會超過幾十千瓦。這就需要數據中心為它修改供電和散熱等結構。比如傳統的數據中心大都靠風扇散熱,但如果要部署GPU,就可能要改成水冷散熱。對于大數據中心來說,這是筆巨大的開銷。

微信圖片_20201023103239.png

  伴隨著高功耗,更大的問題實際是高昂的電費開支。要知道,現代數據中心的運維成本里,電費開支占40%甚至更高。所以,對于GPU在數據中心里的大規模部署,我們通常考慮的是它所帶來的性能優勢,能否抵消它帶來的額外電費。

  ASIC

  ASIC就是所謂的人工智能專用芯片。這里的典型代表,就是谷歌阿爾法狗里用的TPU。根據谷歌的數據,TPU在阿爾法狗里替代了一千多個CPU和上百個GPU。

微信圖片_20201023103244.png

  在我們的衡量體系里,這種AI專用芯片的各項指標都非常極端,比如它有著極高的性能和極低的功耗,和GPU相比,它的性能可能會高十倍,功耗會低100倍。

微信圖片_20201023103244.png

  但是,研發這樣的芯片有著極高的成本和風險。與軟件開發不同,芯片開發全程都需要大量的人力物力投入,開發周期往往長達數年,而且失敗的風險極大。放眼全球,同時擁有雄厚的資金實力和技術儲備以進行這類研發的公司,大概用兩只手就能數的出來。也就是說,這種方案對于大多數公司而言并可能沒有直接的借鑒意義。

  此外呢,AI專用芯片的靈活性往往比較低。顧名思義,包括谷歌TPU在內的AI專用芯片,通常是針對某種特定應用而設計開發,因此它可能很難適用于其他的應用。在使用成本的角度,如果要采用基于ASIC的方案,就需要這類目標應用有足夠的使用量,以分攤高昂的研發費用。同時,這類應用需要足夠穩定,避免核心的算法和協議不斷變化。而這對于很多AI應用來說是不現實的。

  值得一提的是,我國在人工智能專用芯片領域涌現出來了一波優秀的公司,比如寒武紀、地平線,還有之前被賽靈思收購的深鑒科技等等。受篇幅限制,關于這些公司的具體產品和技術,這里就不再展開了。

微信圖片_20201023103246.png

  FPGA

  最后再來說一下FPGA。我個人認為,FPGA能夠在這些性能指標中達到比較理想的平衡。當然了,我目前的職業就和FPGA緊密相關,所以這個結論有屁股決定腦袋之嫌,謹供大家借鑒。

微信圖片_20201023103249.png

  在性能方面,FPGA可以實現定制化的硬件流水線,并且可以在硬件層面進行大規模的并行運算,而且有著很高的吞吐量。

  FPGA最主要的特點其實是它的靈活性,它可以很好的應對包括計算密集型和通信密集型在內的各類應用。此外,FPGA有著動態可編程、部分可編程的特點,也就是說,FPGA可以在同一時刻處理多個應用,也可以在不同時刻處理不同的應用。

  在數據中心里,目前FPGA通常以加速卡的形式配合現有的CPU進行大規模部署。FPGA的功耗通常為幾十瓦,對額外的供電和散熱等環節沒有特殊要求,因此可以兼容數據中心的現有硬件基礎設施。

  在衡量AI芯片的時候,我們也經常使用性能功耗比這個標準。也就是說,即使某種芯片的性能非常高,但是功耗也非常高的話,那么這個芯片的性能功耗比就很低。這也是FPGA相比GPU更有優勢的地方。

微信圖片_20201023103252.png

  在開發成本方面,FPGA的一次性成本其實遠低于ASIC,因為FPGA在制造出來之后,可以通過重復編程來改變它的邏輯功能。而專用芯片一旦流片完成就不能修改了,但是每次流片都會耗資巨大。這也是為什么包括深鑒在內的很多AI芯片的初創企業,都使用FPGA作為實現平臺的原因。

  所以說,相比其他硬件加速單元而言,FPGA在性能、靈活性、同構性、成本和功耗五個方面達到了比較理想的平衡,這也是微軟最終選用FPGA,并在數據中心里進行大規模部署的主要原因,有興趣的朋友,可以看之前的文章《FPGA在微軟數據中心的前世今生》。

  結語

  在這篇文章里,我們討論了人工智能芯片的主要分類,比如按應用場景,可以分成服務器端和移動端兩類。我們介紹了四種可以用來執行人工智能應用的芯片,分別是CPU、GPU、ASIC和FPGA。我們還根據一個思維框架,從性能、靈活性、同構性、功耗、成本五個方面,分別衡量了這四種芯片的優缺點。

  事實上,對于這個問題并沒有一個唯一的答案。我們只有根據特定的“Context”,也就是具體情況具體分析,才能找到最適用于某個應用的AI芯片。而這種理性的思維方式,其實也適用于我們日常工作和生活的各種事情,這也是本文想要傳達的最重要的內容。

 

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 李宗瑞60集k8经典网| 美女极度色诱视频国产| 大地资源视频在线观看| 久久免费动漫品精老司机| 波多野结衣av高清一区二区三区| 国产亚洲一区二区手机在线观看| 91在线看片一区国产| 成人亚洲成人影院| 久久精品无码专区免费| 欧美美女与野兽免费看电影| 动漫毛片在线观看| 高high肉文| 国产精品国产亚洲精品看不卡| 一个人看的片免费高清大全| 日本最刺激夫妇交换影片| 亚洲国产成人精品无码区在线秒播| 福利视频导航网| 国产亚洲视频在线| videos性欧美| 在线日韩日本国产亚洲| 中文国产成人久久精品小说| 日韩欧美一及在线播放| 亚洲国产精品无码成人片久久| 米兰厉云封免费阅读完结| 国产三级毛片视频| 欧美欧洲性色老头老妇| 国产综合色在线视频| jlzzjlzz亚洲乱熟在线播放| 无码福利一区二区三区| 久久综合色视频| 欧美人与动牲免费观看一| 亚洲精品无码mv在线观看网站| 精品无人区麻豆乱码1区2区| 国产亚洲欧美一区二区三区| 四虎国产精品永久在线播放| 国产自产在线视频一区| a级毛片免费看| 性xxxx视频播放免费| 久久一本精品久久精品66| 日韩免费毛片视频| 亚洲人成77777在线观看网|