日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI優(yōu)化的FPGA和GPU的芯片級(jí)對(duì)比

FPGA之家 ? 來(lái)源:FPGA之家 ? 作者:FPGA之家 ? 2021-03-29 14:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本部分,我們就跟隨作者一起看看Intel Stratix10 NX和Nvidia在這個(gè)領(lǐng)域的利器T4以及V100之間的對(duì)比,過(guò)程分為芯片級(jí)對(duì)比以及系統(tǒng)級(jí)對(duì)比。

本部分一起先來(lái)看看芯片級(jí)對(duì)比

首先來(lái)看下我們的GPU對(duì)手——Nvidia T4和V100分別有320個(gè)和640個(gè)張量核(專門用于AI工作負(fù)載的矩陣乘法引擎)

Nvidia Tesla T4

Nvidia Tesla V100

下面表格總結(jié)了與Stratix10 NX和這些同代工藝GPU的關(guān)鍵指標(biāo)對(duì)比。 就die尺寸來(lái)說(shuō),V100是Nvidia最大的12nm GPU,幾乎比T4大50%,而Stratix10 NX比兩種GPU都小。

36bc17bc-8ecc-11eb-8b86-12bb97331649.png

首先,文章使用GPU最擅長(zhǎng)處理的工作負(fù)載:通用矩陣乘(GEMM)來(lái)跑GPU的benchmark(什么是GEMM請(qǐng)移步https://spatial-lang.org/gemm),為了測(cè)量最佳的GPU性能,對(duì)每個(gè)器件使用最新的library,這些庫(kù)不會(huì)出錯(cuò),并且分別在使用和不使用張量核的情況下測(cè)試性能。對(duì)于fp32和fp16實(shí)驗(yàn),分別使用CUDA10.0和10.2的CuBLAS庫(kù)進(jìn)行V100和T4。對(duì)于int8,我們使用CUDA10.2中的cuBLASLt庫(kù),這樣可以比cuBLAS庫(kù)獲得更高的int8性能。文章使用Nvidia的官方(高度優(yōu)化)的cuDNN kernel來(lái)處理DL工作負(fù)載,并且分別對(duì)V100和T4使用了從cuDNN7.6.2和7.6.5。 (cuBLAS API,從cuda6.0開始;cuBLASLt API,從cuda10.1開始)

cuDNN庫(kù)不支持int8計(jì)算kernel,但它們支持將所有模型權(quán)重保存在片上內(nèi)存中。對(duì)于每個(gè)工作負(fù)載、問(wèn)題大小和序列長(zhǎng)度,文章在兩種GPU上運(yùn)行了所有可能的配置組合,如精度{fp32、fp16、int8}、計(jì)算樣式{persistent、non-persistent}、張量核心設(shè)置{enable、disable}。然后,選擇最佳的性能,來(lái)和Stratix10 NX的NPU進(jìn)行比較。 這里因?yàn)槭切酒?jí)對(duì)比,所以只考慮了芯核的計(jì)算效率,不包括任何初始化、芯核啟動(dòng)或主機(jī)-GPU數(shù)據(jù)傳輸開銷。

下圖給出了T4和V100 GPU上fp32、fp16和int8精度的GEMM benchmark測(cè)試結(jié)果。結(jié)果表明,相對(duì)于張量核禁用情況(藍(lán)線),啟用張量核(紅線) 可以顯著提高GPU在GEMM上的性能。

3735e1d2-8ecc-11eb-8b86-12bb97331649.png

然而,一個(gè)普遍的趨勢(shì)是,張量核雖然是為GEMM設(shè)計(jì)的,但在矩陣大小為2048或以下情況時(shí)的利用效率明顯不如峰值情況(紅色虛線)。因此要實(shí)現(xiàn)高利用率,除非工作負(fù)載中的矩陣大小非常大,而這在實(shí)際DL工作負(fù)載中并不常見(jiàn)。T4和V100上的張量核都不支持fp32的精度,而是在執(zhí)行乘法運(yùn)算之前,將fp32數(shù)據(jù)轉(zhuǎn)換為fp16。相對(duì)于純fp16 GEMM,這種數(shù)據(jù)轉(zhuǎn)換開銷降低了張量核性能。另一個(gè)有趣的情況是,當(dāng)T4張量核在int8模式下工作時(shí),它們需要將輸入矩陣從標(biāo)準(zhǔn)的行/列主要格式轉(zhuǎn)換為特定于張量核的布局。因此,即使在處理非常大的8192×8192矩陣時(shí),在張量核(沒(méi)有標(biāo)記的紅線)上實(shí)現(xiàn)的int8性能還不到峰值性能的45%。

為了更好地理解這種數(shù)據(jù)轉(zhuǎn)換的開銷,文章還進(jìn)行了一個(gè)額外的實(shí)驗(yàn),在這個(gè)實(shí)驗(yàn)中,對(duì)張量核進(jìn)行了特殊布局(帶有標(biāo)記的紅線)。即使不算矩陣布局變化的開銷,對(duì)于4096×4096及以下的矩陣大小,張量核利用率也小于40%,在6144×6144矩陣中利用率達(dá)到最高為72%。

下面來(lái)看看FPGA上的情況,上圖(Fig.6)的右上角那張圖比較了Stratix10 NX上的NPU性能與具有int8張量核的T4 GPU的性能。為了公平地比較,文章禁用了NPU兩個(gè)輸入矩陣其中一個(gè)的矩陣布局變換,只保留了對(duì)另一個(gè)輸入以及輸出矩陣的布局變換(因?yàn)镹PU以標(biāo)準(zhǔn)格式使用和生成這些矩陣)。

雖然NPU是為矩陣向量運(yùn)算而設(shè)計(jì)的,但它在GEMM工作負(fù)載上仍然實(shí)現(xiàn)了與T4相似的性能,其矩陣大小從512到3072不等(最大的矩陣可以fit進(jìn)片上BRAM)。

最后,一起看看頂級(jí)FPGA和GPU的PK結(jié)果。下圖(Fig.7)將文章在Stratix10 NX上增強(qiáng)型NPU的性能與T4和V100的最佳性能進(jìn)行比較。對(duì)于比較小的batch-3和batch-6情況,F(xiàn)PGA性能總是顯著高于兩個(gè)GPU。FPGA在batch-6(其設(shè)計(jì)為:雙核batch-3)中表現(xiàn)最好,平均性能分別是T4和V100的24.2x和11.7x。

與batch-6相比,F(xiàn)PGA在batch-3上的性能較低,因?yàn)閮蓚€(gè)核中的一個(gè)完全空閑。然而,它仍然比T4和V100分別平均快了22.3x和9.3x。在batch size高于6時(shí),如果batch size不能被6整除,則NPU可能不能被充分利用。例如,在batch size為8、32和256的情況下,NPU最多可以達(dá)到其batch-6性能的67%、89%和99%,而batch size為12、36和258(上圖中的虛線所示)可以達(dá)到100%的效率。在32輸入的中等batch size情況下,NX仍然比T4具有更好的性能,并且與V100性能相當(dāng)。

即使在比較大的batch size情況下,NX的性能也比T4高58%,只比die size更大(大將近一倍)的V100低30%。這些結(jié)果表明,人工智能優(yōu)化的FPGA在低batch實(shí)時(shí)推理中不僅可以實(shí)現(xiàn)比GPU好一個(gè)數(shù)量級(jí)的性能,而且可以在放寬延遲約束下的高batch推理中和GPU匹敵。上圖(Fig.7)中的右下角圖總結(jié)了不同batch size情況下NX相對(duì)于CPU的平均加速情況。

上圖(Fig.7)中的右上角圖顯示了與不同batch大小下的兩個(gè)GPU相比,NX的平均利用率。NX在batch-6中的平均利用率為37.1%,而T4和V100分別僅為1.5%和3%。GPU張量核并非直接互連,它們只能接收來(lái)自本地核內(nèi)寄存器文件的輸入。因此,每個(gè)GPU張量核都必須發(fā)送它的partial result到全局內(nèi)存中,并與其他張量核同步,以結(jié)合這些partial result。然后GPU從全局內(nèi)存中讀取組合好的矢量來(lái)執(zhí)行進(jìn)一步的操作,如激活函數(shù)(activation functions)。

較高的batch size可以攤銷這種同步延遲,但即使在batch-256情況下,T4和V100的利用率分別只有13.3%和17.8%。 另一方面,F(xiàn)PGA在架構(gòu)上也更具優(yōu)勢(shì),其在張量塊之間有專用的用來(lái)做減法的互連, FPGA的可編程布線資源還允許將MVU tile和矢量單元級(jí)引擎級(jí)聯(lián)起來(lái)進(jìn)行直接通信,減少了像GPU中那樣必須通過(guò)內(nèi)存通信的情況。

綜上可以看到,F(xiàn)PGA依靠架構(gòu)優(yōu)勢(shì)和超高的資源利用率,在AI性能PK上對(duì)GPU形成了強(qiáng)勁挑戰(zhàn)。下一篇,我們?cè)賮?lái)一起看看從系統(tǒng)角度,F(xiàn)PGA和GPU的對(duì)比情況以及功耗方面的分析。

原文標(biāo)題:讀《超越巔峰性能:AI優(yōu)化的FPGA和GPU真實(shí)性能對(duì)比》:芯對(duì)芯

文章出處:【微信公眾號(hào):FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1664

    文章

    22509

    瀏覽量

    639543
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41324

    瀏覽量

    302703

原文標(biāo)題:讀<超越巔峰性能:AI優(yōu)化的FPGA和GPU真實(shí)性能對(duì)比>:芯對(duì)芯

文章出處:【微信號(hào):zhuyandz,微信公眾號(hào):FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    國(guó)產(chǎn)來(lái)襲!2nm AI GPU?

    的時(shí)間和成本內(nèi)實(shí)現(xiàn)。 ? 近日,據(jù)媒體報(bào)道,上海棣山科技有限公司(以下簡(jiǎn)稱“棣山科技”)對(duì)外披露其2nm高端AI GPU芯片最新研發(fā)進(jìn)展。據(jù)悉,該公司自主攻關(guān)的這款芯片已達(dá)到國(guó)際前沿設(shè)
    的頭像 發(fā)表于 04-15 07:02 ?8545次閱讀

    AI Agent發(fā)展浪潮下,芯片級(jí)安全為何成為關(guān)鍵?主流芯片廠商如何布局?

    的安全挑戰(zhàn)。海光信息港澳辦總經(jīng)理魯千夫指出,面對(duì)更高復(fù)雜度的模型,芯片需具備更高的應(yīng)用生態(tài)兼容性和性能,同時(shí),芯片級(jí)安全的重要性也日益凸顯。那么,為何芯片級(jí)安全如此關(guān)鍵?主流芯片廠商又
    的頭像 發(fā)表于 04-15 16:39 ?5186次閱讀

    矽典微發(fā)布XenD101HS:以“芯片級(jí)”隱形感知,重新定義毫米波交互邊界

    定義“芯片級(jí)”毫米波新形態(tài)在智能設(shè)備日益追求“極簡(jiǎn)美學(xué)”與“無(wú)感交互”的今天,如何在不破壞設(shè)備外觀的前提下,精準(zhǔn)感知人體存在,一直是行業(yè)前進(jìn)的目標(biāo)和難題。矽典微推出新品XenD101HS,AiP人體
    的頭像 發(fā)表于 03-23 19:13 ?315次閱讀
    矽典微發(fā)布XenD101HS:以“<b class='flag-5'>芯片級(jí)</b>”隱形感知,重新定義毫米波交互邊界

    OrangePi RV2 深度技術(shù)評(píng)測(cè):RISC-V AI融合架構(gòu)的先行者

    、PyTorch),但實(shí)際部署需針對(duì)性優(yōu)化 對(duì)比 :比樹莓派5(無(wú)專用NPU)強(qiáng),但弱于Orange Pi 5 Max的6 TOPS NPU 2.3 GPU 與顯示 GPU :僅能驅(qū)動(dòng)
    發(fā)表于 03-03 20:19

    奧迪威芯片級(jí)風(fēng)扇:面向高性能電子設(shè)備的芯片級(jí)主動(dòng)熱管理方案

    芯片級(jí)風(fēng)扇代表了熱管理領(lǐng)域的一次范式轉(zhuǎn)變,從板級(jí)或系統(tǒng)級(jí)散熱轉(zhuǎn)向了精確的、芯片級(jí)的主動(dòng)干預(yù)。其小型化、易于集成、高效運(yùn)行和可擴(kuò)展性的結(jié)合,使其成為下一代高性能、緊湊型電子產(chǎn)品不可或缺的
    的頭像 發(fā)表于 02-25 11:13 ?317次閱讀
    奧迪威<b class='flag-5'>芯片級(jí)</b>風(fēng)扇:面向高性能電子設(shè)備的<b class='flag-5'>芯片級(jí)</b>主動(dòng)熱管理方案

    FPGA+GPU異構(gòu)混合部署方案設(shè)計(jì)

    為滿足對(duì) “納秒級(jí)實(shí)時(shí)響應(yīng)” 與 “復(fù)雜數(shù)據(jù)深度運(yùn)算” 的雙重需求,“FPGA+GPU”異構(gòu)混合部署方案通過(guò)硬件功能精準(zhǔn)拆分與高速協(xié)同,突破單一硬件的性能瓶頸 ——FPGA聚焦低延遲實(shí)時(shí)交易鏈路,
    的頭像 發(fā)表于 01-13 15:20 ?506次閱讀

    數(shù)字IC/FPGA設(shè)計(jì)中的時(shí)序優(yōu)化方法

    在數(shù)字IC/FPGA設(shè)計(jì)的過(guò)程中,對(duì)PPA的優(yōu)化是無(wú)處不在的,也是芯片設(shè)計(jì)工程師的使命所在。此節(jié)主要將介紹performance性能的優(yōu)化,如何對(duì)時(shí)序路徑進(jìn)行
    的頭像 發(fā)表于 12-09 10:33 ?3581次閱讀
    數(shù)字IC/<b class='flag-5'>FPGA</b>設(shè)計(jì)中的時(shí)序<b class='flag-5'>優(yōu)化</b>方法

    FPGAGPU加速的視覺(jué)SLAM系統(tǒng)中特征檢測(cè)器研究

    特征檢測(cè)是SLAM系統(tǒng)中常見(jiàn)但耗時(shí)的模塊,隨著SLAM技術(shù)日益廣泛應(yīng)用于無(wú)人機(jī)等功耗受限平臺(tái),其效率優(yōu)化尤為重要。本文首次針對(duì)視覺(jué)SLAM流程開展硬件加速特征檢測(cè)器的對(duì)比研究,通過(guò)對(duì)比現(xiàn)代SoC平臺(tái)
    的頭像 發(fā)表于 10-31 09:30 ?892次閱讀
    <b class='flag-5'>FPGA</b>和<b class='flag-5'>GPU</b>加速的視覺(jué)SLAM系統(tǒng)中特征檢測(cè)器研究

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型邊緣部署 3、智能手機(jī)AI芯片 3.1概述 智能手機(jī)中最大的一塊芯片就是應(yīng)用處理器(AP)。AP中集成了CPU、GPU、NPU、DSP、5G調(diào)制解調(diào)器、圖
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    的工作嗎? 從書中也了解到了AI芯片都有哪些?像CPU、GPUFPGA、ASIC都是AI芯片。
    發(fā)表于 09-12 16:07

    AI 芯片浪潮下,職場(chǎng)晉升新契機(jī)?

    職場(chǎng)、渴望在專業(yè)領(lǐng)域更進(jìn)一步的人來(lái)說(shuō),AI 芯片與職稱評(píng)審之間,實(shí)則有著千絲萬(wàn)縷的聯(lián)系,為職業(yè)晉升開辟了新的路徑。 AI 芯片領(lǐng)域細(xì)分與職稱對(duì)應(yīng) 目前,
    發(fā)表于 08-19 08:58

    PCIe協(xié)議分析儀能測(cè)試哪些設(shè)備?

    場(chǎng)景:監(jiān)測(cè)GPU與主機(jī)之間的PCIe通信,分析數(shù)據(jù)傳輸效率、延遲和帶寬利用率。 應(yīng)用價(jià)值:優(yōu)化大規(guī)模AI訓(xùn)練任務(wù)的數(shù)據(jù)加載和模型參數(shù)同步,例如在多GPU系統(tǒng)中測(cè)試PCIe交換機(jī)的性能和
    發(fā)表于 07-25 14:09

    漢思新材料|芯片級(jí)底部填充膠守護(hù)你的智能清潔機(jī)器人

    (消毒作業(yè))、商場(chǎng)(夜間保潔)等,技術(shù)融合AI視覺(jué)與機(jī)械臂,突破立體清潔瓶頸。2024年全球家庭機(jī)型出貨量超2000萬(wàn)臺(tái),商用市場(chǎng)增速達(dá)19.7%。漢思芯片級(jí)底部
    的頭像 發(fā)表于 07-04 10:43 ?1127次閱讀
    漢思新材料|<b class='flag-5'>芯片級(jí)</b>底部填充膠守護(hù)你的智能清潔機(jī)器人

    ESD技術(shù)文檔:芯片級(jí)ESD與系統(tǒng)級(jí)ESD測(cè)試標(biāo)準(zhǔn)介紹和差異分析

    ESD技術(shù)文檔:芯片級(jí)ESD與系統(tǒng)級(jí)ESD測(cè)試標(biāo)準(zhǔn)介紹和差異分析
    的頭像 發(fā)表于 05-15 14:25 ?4979次閱讀
    ESD技術(shù)文檔:<b class='flag-5'>芯片級(jí)</b>ESD與系統(tǒng)<b class='flag-5'>級(jí)</b>ESD測(cè)試標(biāo)準(zhǔn)介紹和差異分析

    提升AI訓(xùn)練性能:GPU資源優(yōu)化的12個(gè)實(shí)戰(zhàn)技巧

    在人工智能與機(jī)器學(xué)習(xí)技術(shù)迅速發(fā)展的背景下,GPU計(jì)算資源的高效利用已成為關(guān)鍵技術(shù)指標(biāo)。優(yōu)化GPU資源分配不僅能顯著提升模型訓(xùn)練速度,還能實(shí)現(xiàn)計(jì)算成本的有效控制。根據(jù)AI基礎(chǔ)設(shè)施聯(lián)盟2
    的頭像 發(fā)表于 05-06 11:17 ?1699次閱讀
    提升<b class='flag-5'>AI</b>訓(xùn)練性能:<b class='flag-5'>GPU</b>資源<b class='flag-5'>優(yōu)化</b>的12個(gè)實(shí)戰(zhàn)技巧
    阿巴嘎旗| 武义县| 绥芬河市| 申扎县| 沅江市| 桂平市| 东阳市| 栖霞市| 奎屯市| 太原市| 遂平县| 钟山县| 繁峙县| 盘锦市| 武义县| 通州区| 仙居县| 西乌珠穆沁旗| 凭祥市| 漳州市| 河间市| 曲水县| 新建县| 连城县| 顺平县| 临沂市| 梁河县| 清河县| 湘潭县| 甘谷县| 忻州市| 昌邑市| 英吉沙县| 昌黎县| 马鞍山市| 江源县| 柳林县| 蓝山县| 承德县| 横峰县| 布尔津县|