日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和谷歌TPU

汽車電子設計 ? 來源:芝能汽車 ? 2024-02-26 10:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統(tǒng)GPU和谷歌TPU。該芯片采用了全球首個LPU方案,解決了計算密度和內(nèi)存帶寬的瓶頸,推理速度提高了10倍,成本降低十分之一,性價比提高了100倍。芯片搭載了230MB大SRAM,內(nèi)存帶寬高達80TB/s,算力強大,支持多種機器學習框架進行推理。 Groq在演示中展示了多種模型的強大性能,并宣稱在三年內(nèi)將超越英偉達產(chǎn)品特色包括API訪問速度快、支持多種開源LLM模型、價格優(yōu)勢等,成為大模型推理領域的新興力量。

Groq 公司的創(chuàng)始于2016年,旗艦產(chǎn)品是 Groq Tensor Streaming Processor Chip(TSP)和相應的軟件,主要應用于人工智能、機器學習、深度學習等領域。目標市場包括人工智能和機器學習超大規(guī)模應用、政府部門、高性能計算集群、自動駕駛車輛以及高性能邊緣設備。

Groq產(chǎn)品以其出色的推理性能、對多種開源LLM模型的支持以及具有競爭力的價格政策等特色,成為一個引人注目的選擇。這個芯片到底是怎么做的呢?

6563bedc-d440-11ee-a297-92fbcf53809c.png

Part 1

Groq的做法

隨著人工智能(AI)和高性能計算(HPC)的融合發(fā)展,對于同時處理AI和HPC工作負載的需求日益增加。在這一背景下,Groq公司推出了其最新的AI推理加速器,旨在簡化計算、提高效率,并實現(xiàn)更高的可擴展性,軟件定義張量流多處理器(TSP),采用了一種全新的硬件軟件結(jié)合的方法,為人工智能、機器學習和深度學習應用提供更高效的計算支持。

Groq AI推理加速器的設計思想是結(jié)合了HPC與AI的工作負載需求,提供了一種創(chuàng)新的可擴展計算架構(gòu)。

相比傳統(tǒng)的GPU,GroqChip 1具有更簡化的編程模型,更高的響應速度以及更可靠的執(zhí)行。該芯片擁有多個特色組件,包括高速網(wǎng)絡、數(shù)據(jù)交換器、指令控制、SRAM內(nèi)存以及Groq TruePoint矩陣,使其具備了強大的計算能力和靈活性。

傳統(tǒng)的 CPU 架構(gòu)在控制邏輯方面隱藏了大量復雜性,如緩存、預取、亂序執(zhí)行和分支預測,但這些控制邏輯會減少可用于原始計算的面積。

與此相反,Groq 公司重新審視了硬件軟件的合約,創(chuàng)造出了更加可預測和基于流的硬件,并將更多的控制權(quán)交給了軟件。

硬件(CPU)定義了軟件,但隨著數(shù)據(jù)流型計算需求的增長以及摩爾定律和 Dennard 縮放的減速,CPU“抽象”不再是軟件開發(fā)的唯一基礎。因此,Hennessy 和 Patterson 提出了“計算機體系結(jié)構(gòu)的新黃金時代”的觀點,Lattner 提出了“編譯器的新黃金時代”的觀點,Karpathy 則提出了“軟件 2.0”的概念,這都預示著硬件與軟件的抽象合約已經(jīng)重新開啟,實現(xiàn)了“軟件定義硬件”的機會。

GroqChip 的可擴展架構(gòu)以簡化計算,通過使用大量單級劃分 SRAM 和顯式分配張量,實現(xiàn)了可預測的性能。

此外,Groq 公司設計了功能劃分的微體系結(jié)構(gòu),重新組織了多核網(wǎng)格,使得編譯器可以對程序執(zhí)行進行精確控制,從而提高了執(zhí)行效率。

659b1602-d440-11ee-a297-92fbcf53809c.png

Groq AI推理加速器支持各種規(guī)模的計算節(jié)點,從單個卡片到整個機架,都能實現(xiàn)高效的并行計算。

65aae5d2-d440-11ee-a297-92fbcf53809c.png

通過GroqRack和GroqNode等組件的組合,用戶可以根據(jù)實際需求靈活搭建計算集群,實現(xiàn)對不同規(guī)模工作負載的處理。

Groq 公司提供了強大的編譯器支持,通過在編譯時和運行時之間建立靜態(tài)-動態(tài)接口和硬件-軟件接口,賦予了軟件更多的數(shù)據(jù)編排權(quán)力。該編譯器能夠?qū)崿F(xiàn) SOTA(State of the Art)級別的性能,對于一些重要的矩陣操作如通用矩陣乘法(GEMM),Cholesky 分解等,取得了令人矚目的成果。

65aff626-d440-11ee-a297-92fbcf53809c.png

在系統(tǒng)拓撲結(jié)構(gòu)方面,Groq 公司采用了低直徑網(wǎng)絡 Dragonfly,以最小化網(wǎng)絡中的跳數(shù),提高了數(shù)據(jù)傳輸效率。

同時,通過 Chip-to-Chip(C2C)鏈接和流量控制,實現(xiàn)了多芯片間的通信。此外,Groq 公司還提出了一種多芯片間的分區(qū)和流水線并行執(zhí)行的方法,以進一步提高多芯片系統(tǒng)的性能。

65b4d1f0-d440-11ee-a297-92fbcf53809c.png

Part 2

實際案例

除了傳統(tǒng)的計算流體動力學(CFD)應用外,Groq AI推理加速器還可應用于圖神經(jīng)網(wǎng)絡(GNN)等領域。GNN廣泛應用于非歐幾里得數(shù)據(jù)的建模和預測,例如化學分子結(jié)構(gòu)、社交媒體推薦系統(tǒng)等。Groq芯片在處理這類非結(jié)構(gòu)化數(shù)據(jù)時表現(xiàn)出色,通過深度學習算法的加速,能夠大幅提升模型訓練和推理的效率。軟件定義張量流多處理器提供了一種全新的硬件軟件結(jié)合的方法,通過重新審視硬件軟件合約,將更多的控制權(quán)交給了軟件,從而實現(xiàn)了更高效的計算性能。隨著人工智能和深度學習應用的不斷發(fā)展,這種方法將有望在未來的計算領域發(fā)揮重要作用。

在實際應用中,Groq AI推理加速器已經(jīng)在化學分子屬性預測、藥物發(fā)現(xiàn)等領域取得了顯著的成果。

65d0a9f2-d440-11ee-a297-92fbcf53809c.png

借助其高性能和可擴展性,Groq芯片在處理大規(guī)模數(shù)據(jù)集時能夠?qū)崿F(xiàn)極大的加速,從而提升了科學研究和工程實踐的效率。

65ff0b4e-d440-11ee-a297-92fbcf53809c.png

小結(jié)

總的來說,Groq AI推理加速器以其創(chuàng)新的設計思想和強大的性能,在處理融合HPC與AI工作負載的應用中展現(xiàn)出了巨大的潛力。隨著對于高性能計算和人工智能技術的不斷發(fā)展,相信Groq芯片將在各個領域展現(xiàn)出更廣泛的應用前景。

?



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50370

    瀏覽量

    267081
  • 機器學習
    +關注

    關注

    67

    文章

    8567

    瀏覽量

    137266
  • TSP
    TSP
    +關注

    關注

    1

    文章

    26

    瀏覽量

    17477
  • 大模型
    +關注

    關注

    2

    文章

    3802

    瀏覽量

    5280
  • Groq
    +關注

    關注

    0

    文章

    10

    瀏覽量

    224

原文標題:Groq AI推理加速器: 三年內(nèi)超越英偉達?

文章出處:【微信號:QCDZSJ,微信公眾號:汽車電子設計】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    谷歌發(fā)布第八代TPU,訓練推理分離,搭載自研CPU

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)在2026年4月22日舉行的谷歌云Next大會上,谷歌正式發(fā)布第八代張量處理單元(TPU)。此次發(fā)布的產(chǎn)品包含兩款獨立的
    的頭像 發(fā)表于 04-24 09:03 ?6184次閱讀
    <b class='flag-5'>谷歌</b>發(fā)布第八代<b class='flag-5'>TPU</b>,訓練<b class='flag-5'>推理</b>分離,搭載自研CPU

    模型推理服務的彈性部署與GPU調(diào)度方案

    7B 模型 FP16 推理需要約 14GB 顯存,70B 模型需要 140GB+,KV Cache 隨并發(fā)數(shù)線性增長,顯存碎片化導致實際利用率不足 60%。
    的頭像 發(fā)表于 03-03 09:29 ?467次閱讀

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    領域占據(jù)主導,其GPU憑借強大的海量數(shù)據(jù)處理能力,成為全球AI爆炸式增長的重要基石。但隨著AI不斷演進,重點正從大規(guī)模訓練轉(zhuǎn)向?qū)σ延柧?b class='flag-5'>模型的推理和推斷,推理已然成為新的競爭戰(zhàn)場。業(yè)內(nèi)普
    的頭像 發(fā)表于 02-03 17:15 ?3309次閱讀

    曦望發(fā)布新一代推理GPU芯片,單位Token推理成本降低90%

    電子發(fā)燒友網(wǎng)報道 1月27日,國產(chǎn)GPU廠商曦望(Sunrise)重磅發(fā)布新一代推理GPU芯片——啟望S3。這是曦望在近一年累計完成約30億元戰(zhàn)略融資后的首次集中公開亮相。2025年,
    的頭像 發(fā)表于 01-28 17:38 ?9791次閱讀

    今日看點:消息稱 AMD、高通考慮導入 SOCAMM 內(nèi)存;曦望發(fā)布新一代推理GPU芯片啟望S3

    曦望發(fā)布新一代推理GPU芯片啟望S3 近日,浙江杭州GPU創(chuàng)企曦望(Sunrise)發(fā)布新一代推理GPU
    發(fā)表于 01-28 11:09 ?1365次閱讀

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對當前大型推理模型(LRM)進行了深刻的剖析,超越表面的性能宣傳,直指其技術本質(zhì)和核心局限。以下是基于原文的詳細技術原理、關鍵
    的頭像 發(fā)表于 01-19 15:33 ?734次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    英偉達重磅出手!AI 推理存儲全面覺醒

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)近日,有消息稱,英偉達將以大約200億美元收購人工智能芯片初創(chuàng)公司Groq,這將是英偉達迄今為止規(guī)模最大的一筆收購。但英偉達回應表示,并未計劃收購Groq,僅達成技術
    的頭像 發(fā)表于 12-26 08:44 ?1.2w次閱讀
    英偉達重磅出手!AI <b class='flag-5'>推理</b>存儲全面覺醒

    AI硬件全景解析:CPU、GPU、NPU、TPU的差異化之路,一文看懂!?

    CPU作為“通用基石”,支撐所有設備的基礎運行;GPU憑借并行算力,成為AI訓練與圖形處理的“主力”;TPU在Google生態(tài)中深耕云端大模型訓練;NPU則讓AI從“云端”走向“身邊”(手機、手表
    的頭像 發(fā)表于 12-17 17:13 ?2384次閱讀
    AI硬件全景解析:CPU、<b class='flag-5'>GPU</b>、NPU、<b class='flag-5'>TPU</b>的差異化之路,一文看懂!?

    谷歌正式推出最新Gemini 3 AI模型

    今天我們正式推出 Gemini 3,這是我們迄今為止最智能的模型,能夠幫助用戶實現(xiàn)任何創(chuàng)意。Gemini 3 Pro 基于最先進的推理技術,與之前的版本相比,它在所有主要的 AI 基準測試中都取得了無與倫比的結(jié)果,尤其是在編程方
    的頭像 發(fā)表于 11-24 11:10 ?1451次閱讀
    <b class='flag-5'>谷歌</b>正式<b class='flag-5'>推出</b>最新Gemini 3 AI<b class='flag-5'>模型</b>

    谷歌云發(fā)布最強自研TPU,性能比前代提升4倍

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近日,谷歌云在官方博客上正式宣布,公司成功推出第七代TPU(張量處理器)“Ironwood”,該芯片預計在未來幾周內(nèi)正式上市。 ? “Ironwood”由
    的頭像 發(fā)表于 11-13 07:49 ?9061次閱讀
    <b class='flag-5'>谷歌</b>云發(fā)布最強自研<b class='flag-5'>TPU</b>,性能比前代提升4倍

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    的我我們講解了這幾種芯片的應用場景,設計流程、結(jié)構(gòu)等。 CPU: 還為我們講解了一種算法:哈希表算法 GPU: 介紹英偉達H100GPU
    發(fā)表于 09-12 16:07

    ?Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 倍提速背后的黑科技

    開放預覽,引發(fā)了開發(fā)者社區(qū)的瘋狂討論——?為什么 Groq 能跑得這么快?? 傳統(tǒng) AI 推理硬件(如 GPU)往往面臨一個兩難選擇: ? ?快?(但犧牲精度) ? ?準?(但延遲高到
    的頭像 發(fā)表于 08-07 10:01 ?1360次閱讀

    模型推理顯存和計算量估計方法研究

    ,為實際應用提供有益的參考。 未來,我們將繼續(xù)深入研究大模型推理的優(yōu)化方法,以降低顯存和計算資源的需求,提高深度學習模型在實際應用中的性能。
    發(fā)表于 07-03 19:43

    為什么無法在GPU上使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 上使用 OpenVINO? 運行推理。 沒有可用的
    發(fā)表于 06-23 07:11

    智算加速卡是什么東西?它真能在AI戰(zhàn)場上干掉GPUTPU!

    隨著AI技術火得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計算",可真到了落地環(huán)節(jié),算力才是硬通貨。你有沒有發(fā)現(xiàn),現(xiàn)在越來越多的AI企業(yè)不光用GPU,也不怎么迷信TPU?他
    的頭像 發(fā)表于 06-05 13:39 ?1941次閱讀
    智算加速卡是什么東西?它真能在AI戰(zhàn)場上干掉<b class='flag-5'>GPU</b>和<b class='flag-5'>TPU</b>!
    武城县| 沙田区| 遵化市| 龙泉市| 牟定县| 北票市| 宜黄县| 桦南县| 阳东县| 益阳市| 汽车| 星座| 庄浪县| 宁德市| 濮阳市| 葫芦岛市| 阜阳市| 盐源县| 镇远县| 墨玉县| 吉安县| 宝坻区| 宜阳县| 鄂托克前旗| 双桥区| 大渡口区| 仁化县| 老河口市| 茂名市| 班玛县| 昭觉县| 和田市| 黔东| 南昌市| 句容市| 驻马店市| 井研县| 沙湾县| 陇西县| 房产| 基隆市|