日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

“AI芯片0.5與2.0”還有這區(qū)別?

t1PS_TechSugar ? 來源: 聶磊 ? 作者:電子發(fā)燒友 ? 2019-03-01 14:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

我從2017年的ISSCC開始寫AI硬件相關(guān)的文章,到現(xiàn)在剛好兩年了。在剛剛過去的ISSCC2019上,AI芯片仍然是一個熱點,有幾個session都和AI硬件相關(guān)。同時,CGO19會議的Compilers for Machine Learning Workshop,各種ML編譯器紛紛出場。從大環(huán)境來看,第一代AI芯片軟硬件技術(shù)基本成熟,產(chǎn)業(yè)格局逐漸穩(wěn)定,已經(jīng)為規(guī)模應(yīng)用做好了準(zhǔn)備,可稱之為AI芯片0.5版本。而在ISSCC會議上,大神Yann LeCun在講演中提出了對未來AI芯片的需求[1],開啟了我們對新的架構(gòu)(AI芯片2.0)的思考。

ISSCC2019

兩年前,我在公眾號發(fā)文分析了ISSCC2017Deep-Learning Processors Session中的7篇文章。到今天,不僅AI芯片技術(shù)取得了長足的進步,大家寫文章的熱情也越來越高,相信后面會看到各種對ISSCC2019論文進行分析的文章。所以,我就不再單獨討論具體的論文了,只談一些綜合的感受。

這次我看到論文摘要的時候,首先是還是看Session 7和14的Machine Learning部分。而我最關(guān)注的是三星的論文“An11.5TOPS/W 1024-MAC Butterfly Structure Dual-Core Sparsity-Aware Neural Processing Unit in 8nm Flagship Mobile SoC”。大家知道,三星在手機芯片中加入NPU是相對較晚的,應(yīng)該說在設(shè)計中吸收了學(xué)界和業(yè)界這幾年AI芯片研發(fā)的經(jīng)驗。另外,這也是業(yè)界首次公開在規(guī)模量產(chǎn)芯片(旗艦手機芯片)中的NPU細(xì)節(jié),一方面反映了“真實”和“實用”(不追求指標(biāo)驚人,而是有更明確的優(yōu)化目標(biāo))的結(jié)果,另一方面也標(biāo)志著整個產(chǎn)業(yè)對NPU設(shè)計的認(rèn)識已經(jīng)比較成熟。

另外一個重要看點當(dāng)然是Yann LeCun教授的演講。ISSCC本來是半導(dǎo)體產(chǎn)業(yè)中的“電路(circuit)”會議,這幾年越來越多的加入架構(gòu)層面的內(nèi)容。這次請AI大神做Keynote就更有意思了。大神在ISSCC講演的幾天之內(nèi)還做了一波PR,也有宣傳Facebook自研芯片的意思。當(dāng)然,大神的演講還是非常棒的,特別是對新架構(gòu)的分析。這幾天已經(jīng)有很多文章介紹這個研究,我這里只貼一下他分享的的AI硬件相關(guān)的經(jīng)驗教訓(xùn)以及對未來的展望。

source:ISSCC2019

前兩個部分反映了上世紀(jì)90年底開始到今天的AI熱潮中AI硬件的嘗試以及整個AI發(fā)展中我們學(xué)習(xí)到的經(jīng)驗和教訓(xùn)。第三部分是對新架構(gòu)的預(yù)測,這個我將在本文第三部分重點討論。第四部分主要講一些算法的趨勢,特別是Self-Supervised Learning(蛋糕上的櫻桃)。

最后,他還分享了一下自己的一些其它思考,特別是對于SNN的質(zhì)疑。這部分內(nèi)容這兩天也引起很大爭議。SNN現(xiàn)在確實面臨實用性的問題,Neuromorphic的初衷是模仿人腦,但由于我們現(xiàn)在使用的模型太簡單,這種模型和算法是否是正確路徑確實還有疑問。第二部分,他對模擬計算也有一些疑問,看起來也都是老問題。我自己沒有參會,所以不太清楚他具體的講法是什么。不過我個人覺得模擬計算還是很有前途的(或者說是不得不走的路)。

source:ISSCC2019

如果說Yann LeCun教授對AI芯片的新架構(gòu)提出了需求,那么另外一個推動AI芯片技術(shù)進步的要素將是底層半導(dǎo)體技術(shù)的進步,這也正是ISSCC的重點。從這次會議來看,存儲技術(shù)(包括存內(nèi)計算),模擬計算,硅光技術(shù)等等,在AI,5G等需求的驅(qū)動下都非?;钴S。這些技術(shù)和AI芯片的關(guān)系之前都有介紹,本文就不贅述了。

Compilers for Machine Learning

就在ISSCC的同時,“The International Symposium on Code Generation and Optimization (CGO)”上的“Compilers for Machine Learning” workshop[2]也相當(dāng)熱鬧。我們不妨先看看討論的內(nèi)容:

會議除了目前三大AI/ML編譯器XLA(Tensorflow),TVM,Glow(Pytorch)之外;還有Intel的nGraph,PlaidML;Nvidia的TensorRT;Xilinx用于ACAP的編譯器。另外還有大神Chris的talk和其它來自學(xué)界的講演。會議大部分Slides在網(wǎng)上都可以看到,這里就不具體介紹了。我在一年前寫過一篇文章“Deep Learning的IR“之爭,主要討論IR的問題,和編譯器也是密切相關(guān)的。到今天,這個領(lǐng)域確實也是現(xiàn)在大家競爭的一個焦點。

XLA是比較早提編譯器概念的,但到現(xiàn)在主要還是針對Google的TPU進行優(yōu)化。TVM相當(dāng)活躍,前一段時間還搞了TVM conference,除了東家Amazon之外,華為,Intel,Xilinx,甚至“競爭對手” Facebook都有參加。TVM的“野心”也很大,從最早的編譯器已經(jīng)發(fā)展到了TVM Stack(如下圖,和我之前文章里貼的圖已經(jīng)有了很大的變化),從新的IR(Relay),到自動編譯優(yōu)化的AutoTVM,到開源AI硬件加速器(VTA),開了很多有意思的話題。

source:tvm.ai

Glow是Pytorch的一部分,在AI編譯器里算后起之秀,吸收了XLA和TVM的經(jīng)驗,有自己的特色,目前已經(jīng)有一些廠商站臺,也比較活躍。

XLA和Glow背后是Google和Facebook以及相應(yīng)Learning Framework的生態(tài),應(yīng)該是未來AI編譯器的主要玩家。而這些開源的編譯器項目,也為各個做AI芯片的廠商提供了編譯器框架的基礎(chǔ),大大降低了大家自研編譯器的門檻。另一類編譯器是針對專門硬件的,主要是芯片大廠的自研編譯器,比如Nvidia的TensorRT,以及Intel,Xilinx的編譯器。雖然,目前手工優(yōu)化庫也還是重要的優(yōu)化方式,在一些架構(gòu)上還是比編譯器的結(jié)果好很多,但總的來說,編譯器項目的繁榮,也是AI芯片產(chǎn)業(yè)逐漸成熟的表現(xiàn)。

AI芯片2.0

最后,我們詳細(xì)看看Yann LeCun教授對未來AI硬件的預(yù)測。他的思考主要是從算法演進的需求出發(fā),幾個重點包括:

Dynamic Networks,簡單來說就是神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和數(shù)據(jù)相關(guān),會根據(jù)輸入數(shù)據(jù)(或者中間結(jié)果)選擇不同的分支和操作。而目前AI加速,特別是對于Inference的加速,其高效執(zhí)行的一個前提就是網(wǎng)絡(luò)的確定性(靜態(tài)性),其控制流和數(shù)據(jù)流是可以預(yù)先安排和優(yōu)化好的。動態(tài)網(wǎng)絡(luò)相當(dāng)于把這個前提打破了,對架構(gòu)的靈活性有更高的要求,需要在靈活性和高效性之間得找到新的平衡點。

Neural Network on Graphs。目前的神經(jīng)網(wǎng)絡(luò)處理的基本數(shù)據(jù)主要是張量tensor,相應(yīng)的,目前的AI硬件的基本要求是對tensor運算的加速。而對于圖網(wǎng)絡(luò)來說,數(shù)據(jù)變成了以tensor為節(jié)點和邊的圖。如果圖網(wǎng)絡(luò)成為主流,則又改變了AI硬件設(shè)計的一個前提。專門用于圖計算的芯片已經(jīng)是一個重要的研究方向,落地的速度估計還得看算法演講的速度有多快。

Memory-Augmented Networks。這個主要是對存儲架構(gòu)的新需求,特別是對長期記憶的模擬(在大量存儲中實現(xiàn)Attention機制,我在之前的文章里也討論過)。未來我們可能需要在大量memory中快速找到關(guān)注的內(nèi)容,這要求存儲器不只像目前一樣實現(xiàn)簡單的存取功能,還需要具備查詢和運算能力,比如根據(jù)輸入向量找到一組值;或者一次讀取多個值,然后和一個輸入向量做運算并輸出結(jié)果。

Complex Inference and Search。這個問題簡單來說就是在做inference的時候可能也需要支持反向傳播計算,這當(dāng)然會影響目前的單向inference運算加速的架構(gòu)。

Sparse Activations。這個預(yù)測是說未來的神經(jīng)網(wǎng)絡(luò)可能是一個功能非常強大的巨型網(wǎng)絡(luò),但針對一個任務(wù)只需要激活極少一部分(之前Jeff Dean也做過類似預(yù)測)。這個問題涉及兩個方面,一是如何利用稀疏性(比如像大腦一樣只有2%激活);另一個問題在于這個巨型網(wǎng)絡(luò)的存儲和運算。目前我們還不知道在這個方向上未來會發(fā)展到什么程度,不過這個趨勢可能導(dǎo)致我們必須應(yīng)對整個神經(jīng)網(wǎng)絡(luò)的存儲和運算架構(gòu)中出現(xiàn)的新的瓶頸問題。

當(dāng)然,上述一些算法發(fā)展的趨勢是Yann LeCun教授的看法,未來我們還可能看到其它算法上的演進甚至變革。芯片設(shè)計,特別是Domain-specific架構(gòu)的芯片是由該領(lǐng)域的算法驅(qū)動的。算法的改變會影響我們的優(yōu)化策略和trade off的sweet spot。正如Yann LeCun教授所說“New architectural concepts such as dynamic networks, graph data, associative-memory structures, and inference-through-minimization procedures are likely to affect the type of hardware architectures that will be required in the future.”。

第一代AI芯片從2016年開始爆發(fā),到目前在架構(gòu)設(shè)計上已經(jīng)比較穩(wěn)定,相關(guān)的編譯器的技術(shù)越來越成熟,整個產(chǎn)業(yè)格局基本成型??梢哉f,目前的AI芯片軟硬件技術(shù)已經(jīng)為規(guī)模商用做好了準(zhǔn)備(AI芯片0.5)。未來的一到三年中,我們應(yīng)該可以看到“無芯片不AI”的景象(AI芯片1.0)。再看更遠(yuǎn)的未來,隨著算法演進,應(yīng)用落地,會不斷給芯片提出新的要求,加上底層半導(dǎo)體技術(shù)的進步,我們可以期待在3到5年內(nèi)看到第二次AI芯片技術(shù)創(chuàng)新的高潮(AI芯片2.0)。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41458

    瀏覽量

    302787
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50388

    瀏覽量

    267145

原文標(biāo)題:【科普】AI芯片0.5與2.0

文章出處:【微信號:TechSugar,微信公眾號:TechSugar】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3)2026版

    ://t.elecfans.com/v/28525.html *附件:文檔:Fibo AI Stack模型轉(zhuǎn)化指南------Docker Desktop環(huán)境操作_V2.0.pdf 2 Fibo AI
    發(fā)表于 01-15 10:31

    VS680 HDMI AI分析解決方案 #目標(biāo)識別 #視頻翻譯 #AI #芯片

    AI
    深蕾半導(dǎo)體
    發(fā)布于 :2025年11月12日 10:29:33

    富瀚微AI ISP 2.0,融合AI超分技術(shù),實現(xiàn)“暗光如晝”

    ISP芯片輸出的畫面依然層次分明、色彩自然。細(xì)節(jié)、暗部、輪廓,都被精準(zhǔn)捕捉。 ? ? 富瀚微的普惠AI ISP 2.0基于自研的AI ISP架構(gòu),將傳統(tǒng)ISP圖像處理與
    的頭像 發(fā)表于 10-30 11:43 ?6770次閱讀
    富瀚微<b class='flag-5'>AI</b> ISP <b class='flag-5'>2.0</b>,融合<b class='flag-5'>AI</b>超分技術(shù),實現(xiàn)“暗光如晝”

    華為面向歐洲發(fā)布星河AI Fabric 2.0方案

    華為數(shù)據(jù)通信創(chuàng)新峰會2025期間,在“星河AI Fabric 2.0,算力滿載、業(yè)務(wù)永續(xù)”為主題的論壇上,華為面向歐洲發(fā)布星河AI Fabric 2.0方案。本次發(fā)布是繼2018年發(fā)布
    的頭像 發(fā)表于 10-13 09:43 ?1127次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯(lián)網(wǎng)AGI系統(tǒng) 優(yōu)勢: 組成部分: 2)分布式AI訓(xùn)練 7、發(fā)展重點:基于強化學(xué)習(xí)的后訓(xùn)練與推理 8、超越大模型:神經(jīng)符號計算 三、AGI芯片的實現(xiàn) 1、技術(shù)需求 AI取得成功
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    AI芯片不僅包括深度學(xué)細(xì)AI加速器,還有另外一個主要列別:類腦芯片。類腦芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)架
    發(fā)表于 09-17 16:43

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用

    流體芯片AI計算平臺 ⑥基于AI的自主決策系統(tǒng) ⑦基于AI的自主學(xué)習(xí)系統(tǒng) 2、面臨的挑戰(zhàn) ①需要造就一個跨學(xué)科、全面性覆蓋的知識庫和科學(xué)基礎(chǔ)模型 ②需要解決信息不準(zhǔn)確和認(rèn)知偏差問題
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力

    持續(xù)發(fā)展體現(xiàn)在: 1、收益遞減 大模型的基礎(chǔ)的需要極大的算力,這首先源于昂貴的高性能AI芯片,然后是寶貴的電力、水等與環(huán)境相關(guān)的資源。 收益遞減體現(xiàn)在: ①模型大小 ②訓(xùn)練數(shù)據(jù)量 ③訓(xùn)練算法的優(yōu)化 2
    發(fā)表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    連接定義了神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。 不同神經(jīng)網(wǎng)絡(luò)的DNN: 一、基于大模型的AI芯片 1、Transformer 模型與引擎 1.1 Transformer 模型概述 Transformer 模型的出現(xiàn)
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    的工作嗎? 從書中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的還是知道的,F(xiàn)PGA屬于AI
    發(fā)表于 09-12 16:07

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    的不同。隨著AI熱潮的興起,大腦的抽象模型已被提煉成各種的AI算法,并使用半導(dǎo)體芯片技術(shù)加以實現(xiàn)。 而大腦是一個由無數(shù)神經(jīng)元通過突觸連接而成的復(fù)雜網(wǎng)絡(luò),是極其復(fù)雜和精密的。大腦在本質(zhì)上就是一臺濕潤的軟組織
    發(fā)表于 09-06 19:12

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內(nèi)容總覽

    AI芯片:科技探索與AGI愿景》這本書是張臣雄所著,由人民郵電出版社出版,它與《AI芯片:前沿技術(shù)與創(chuàng)新未來》一書是姊妹篇,由此可見作者在AI
    發(fā)表于 09-05 15:10

    AI 芯片浪潮下,職場晉升新契機?

    在科技飛速發(fā)展的當(dāng)下,AI 芯片已然成為眾多行業(yè)變革的核心驅(qū)動力。從互聯(lián)網(wǎng)巨頭的數(shù)據(jù)中心,到我們?nèi)粘J褂玫闹悄苁謾C、智能家居設(shè)備,AI 芯片的身影無處不在,深刻改變著產(chǎn)品形態(tài)與服務(wù)模式
    發(fā)表于 08-19 08:58

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    名單公布 @LiuDW、@jinglixixi、@bruceleesohu 請于9月3日前,前往【書籍評測活動NO.64】《AI芯片:科技探索與AGI愿景》完成書籍兌換。 如有疑問請 添加小助手微信
    發(fā)表于 07-28 13:54

    FF正式發(fā)布FF AI 2.0操作系統(tǒng)

    ;、"FF"或 "公司")宣布正式推出FF AI 2.0系統(tǒng),該系統(tǒng)即將通過OTA軟件更新集成至FF 91 2.0車型。這一版本標(biāo)志著自2023年FF 91發(fā)布以來
    的頭像 發(fā)表于 06-27 14:15 ?2248次閱讀
    宁都县| 凤山县| 静安区| 会东县| 武宁县| 原平市| 甘肃省| 锦屏县| 高邮市| 崇文区| 沙河市| 曲阜市| 池州市| 城固县| 思茅市| 广宁县| 涟源市| 会东县| 万全县| 马龙县| 上林县| 太和县| 镶黄旗| 汶上县| 云龙县| 大庆市| 晋州市| 连城县| 垫江县| 峨眉山市| 瑞安市| 玛纳斯县| 奇台县| 新巴尔虎左旗| 双城市| 高台县| 嵊泗县| 西丰县| 绥棱县| 双辽市| 大安市|