日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Cerebras推出WSE-3 AI芯片,比NVIDIA H100大56倍

SDNLAB ? 來源:SDNLAB ? 2024-03-14 17:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Cerebras 是一家位于美國加利福尼亞州的初創(chuàng)公司,2019 年進入硬件市場,其首款超大人工智能芯片名為 Wafer Scale Engine (WSE) ,尺寸為 8 英寸 x 8 英寸,比最大的 GPU 大 56 倍,擁有 1.2 萬億個晶體管和 40 萬個計算核心,是當(dāng)時最快、最大的 AI 芯片。隨后在 2021 年,Cerebras 推出了 WSE-2,這是一款 7 納米芯片,其性能是原來的兩倍,擁有 2.6 萬億個晶體管和 85 萬個核心。

近日,Cerebras 宣布推出了第三代WSE-3,性能再次提高了近一倍。

8cb56d78-e1e2-11ee-a297-92fbcf53809c.png

01

Cerebras 推出 WSE-3 AI 芯片,比 NVIDIA H100 大 56 倍 WSE-3采用臺積電5nm工藝,擁有超過4萬億個晶體管和90 萬個核心,可提供 125 petaflops 的性能。這款芯片是臺積電可以制造的最大的方形芯片。WSE-3擁有44GB 片上 SRAM,而不是片外 HBM3E 或 DDR5。內(nèi)存與核心一起分布,目的是使數(shù)據(jù)和計算盡可能接近。

自推出以來,Cerebras 就將自己定位為英偉達GPU 驅(qū)動的人工智能系統(tǒng)的替代品。這家初創(chuàng)公司的宣傳是:他們可以使用更少的芯片在 Cerebras 硬件上進行 AI訓(xùn)練,而不是使用數(shù)千個 GPU。據(jù)稱,一臺Cerebras服務(wù)器可以完成與 10 個 GPU 機架相同的工作。

下圖是Cerebras WSE-3和英偉達 H100的對比。

8cd2762a-e1e2-11ee-a297-92fbcf53809c.png

Cerebras 的獨特優(yōu)勢是將整個硅片直接轉(zhuǎn)化為單一巨大的處理器,從而大幅提升計算性能和效率。英偉達、AMD英特爾等公司往往會把一塊大晶圓切成多個小的部分來制造芯片,在充斥著 Infiniband、以太網(wǎng)、PCIe 和 NVLink 交換機的英偉達GPU 集群中,大量的功率和成本花費在重新鏈接芯片上,Cerebras的方法極大地減少了芯片之間的數(shù)據(jù)傳輸延遲,提高了能效比,并且在AI和ML任務(wù)中實現(xiàn)了前所未有的計算速度。

02

Cerebras CS-3 系統(tǒng)

Cerebras CS-3 是第三代 Wafer Scale 系統(tǒng)。其頂部具有 MTP/MPO 光纖連接,以及用于冷卻的電源、風(fēng)扇和冗余泵。該系統(tǒng)及其新芯片在相同的功耗和價格下實現(xiàn)了大約 2 倍的性能飛躍。

8ce05114-e1e2-11ee-a297-92fbcf53809c.png

Cerebras WSE-3 的核心數(shù)量是英偉達的 H100 Tensor Core 的 52 倍。與 Nvidia DGX H100 系統(tǒng)相比,由 WSE-3 芯片驅(qū)動的 Cerebras CS-3 系統(tǒng)的訓(xùn)練速度提高了 8 倍,內(nèi)存增加了 1,900 倍,并且可以訓(xùn)練多達 24 萬億個參數(shù)的 AI 模型,這是其 600 倍。Cerebras 高管表示,CS-3的能力比 DGX H100 的能力還要大。在 GPU 上訓(xùn)練需要 30 天的 Llama 700 億參數(shù)模型,使用CS-3 集群進行訓(xùn)練只需要一天。

8ceb5910-e1e2-11ee-a297-92fbcf53809c.png8cfd537c-e1e2-11ee-a297-92fbcf53809c.png

CS-3可以配置為多達2048個系統(tǒng)的集群,可實現(xiàn)高達 256 exaFLOPs 的 AI 計算,專為快速訓(xùn)練 GPT-5 規(guī)模的模型而設(shè)計。

8d0abbca-e1e2-11ee-a297-92fbcf53809c.png

Cerebras CS-3 適用于 2048 節(jié)點 256EF 集群

8d1ef59a-e1e2-11ee-a297-92fbcf53809c.png

適用于 GPT 5 規(guī)模的 Cerebras CS-3 集群

03

Cerebras AI編程

Cerebras 聲稱其平臺比英偉達的平臺更易于使用,原因在于 Cerebras 存儲權(quán)重和激活的方式,Cerebras 不必擴展到系統(tǒng)中的多個 GPU,然后擴展到集群中的多個 GPU 服務(wù)器。

8d2fa638-e1e2-11ee-a297-92fbcf53809c.png ?

除了代碼更改很容易之外,Cerebras 表示它的訓(xùn)練速度比 Meta GPU 集群更快。當(dāng)然,這只是理論上數(shù)據(jù),當(dāng)前還沒有任何 2048 個 CS-3 集群已經(jīng)投入運行,而 Meta 已經(jīng)有了 AI GPU 集群。

8d384e50-e1e2-11ee-a297-92fbcf53809c.png

Llama 70B Meta VS Cerebras CS-3 集群

04

Cerebras 與高通合作開發(fā)人工智能推理

Cerebras 和高通建立了合作伙伴關(guān)系,目標是將推理成本降低 10 倍。Cerebras 表示,他們的解決方案將涉及應(yīng)用神經(jīng)網(wǎng)絡(luò)技術(shù),例如權(quán)重數(shù)據(jù)壓縮等。該公司表示,經(jīng)過 Cerebras 訓(xùn)練的網(wǎng)絡(luò)將在高通公司的新型推理芯片AI 100 Ultra上高效運行。

這項工作使用了四種主要技術(shù)來定制 Cerebras 訓(xùn)練的模型:

8d594312-e1e2-11ee-a297-92fbcf53809c.png

稀疏性是 Cerebras 的秘密武器之一,Cerebras 能夠在訓(xùn)練過程中利用動態(tài)、非結(jié)構(gòu)化的稀疏性。高通的 Cloud AI100 具有對非結(jié)構(gòu)化稀疏性的硬件支持,這種稀疏協(xié)同可以使性能提高2.5倍。

推測解碼是一種前景廣闊但迄今為止難以有效實施的行業(yè)技術(shù),也被用來加快速度。這種技術(shù)使用一個大型LLM和一個小型LLM的組合來完成一個大型LLM的工作。小模型不太精確,但效率較高。大模型用于檢查小模型的合理性。總體而言,組合效率更高,由于該技術(shù)總體上使用的計算量較少,因此速度可以提高 1.8 倍。

權(quán)重壓縮為 MxFP6,這是一種行業(yè) 6 位微指數(shù)格式,與 FP16 相比,可節(jié)省 39% 的 DRAM 空間。高通的編譯器將權(quán)重從 FP32 或 FP16 壓縮為 MxFP6,Cloud AI100 的矢量引擎在軟件中執(zhí)行即時解壓縮到 FP16。該技術(shù)可以將推理速度提高 2.2 倍。

神經(jīng)架構(gòu)搜索(NAS)是一種推理優(yōu)化技術(shù)。該技術(shù)在訓(xùn)練期間考慮了目標硬件(Qualcomm Cloud AI 100)的優(yōu)點和缺點,以支持在該硬件上高效運行的層類型、操作和激活函數(shù)。Cerebras 和 Qualcomm 在 NAS 方面的工作使推理速度提高了一倍。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5696

    瀏覽量

    110143
  • 晶體管
    +關(guān)注

    關(guān)注

    78

    文章

    10443

    瀏覽量

    148712
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2167

    瀏覽量

    36871
  • 人工智能芯片
    +關(guān)注

    關(guān)注

    1

    文章

    124

    瀏覽量

    31112
  • DDR5
    +關(guān)注

    關(guān)注

    1

    文章

    485

    瀏覽量

    25822

原文標題:初創(chuàng)公司Cerebras 推出 WSE-3 AI 芯片,聲稱“吊打”英偉達 H100

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA與Google Cloud攜手推進代理式與物理AI發(fā)展

    企業(yè)可以使用 NVIDIA Vera Rubin 驅(qū)動的 A5X 實例 (可擴展至近 100 萬個 Rubin GPU)、Google Distributed Cloud 上的 Gemini、機密
    的頭像 發(fā)表于 04-27 15:35 ?414次閱讀

    AI爆款應(yīng)用驅(qū)動需求增長,英偉達H100租賃費用飆升40%

    電子發(fā)燒友網(wǎng)綜合報道 近期,半導(dǎo)體研究機構(gòu)SemiAnalysis發(fā)布的“H100一年期租賃合約價格指數(shù)”顯示,英偉達四年前發(fā)布的H100芯片租賃費用近半年飆升近40%。這款“老芯片
    的頭像 發(fā)表于 04-05 07:05 ?1.3w次閱讀

    NVIDIA發(fā)布Vera Rubin DSX AI Factory參考設(shè)計

    NVIDIA 今日宣布推出 NVIDIA Vera Rubin DSX AI Factory 參考設(shè)計,這是一份用于構(gòu)建協(xié)同設(shè)計的 AI
    的頭像 發(fā)表于 03-18 14:42 ?672次閱讀

    廣立微QuanTest-YAD良率感知大數(shù)據(jù)診斷分析平臺獲得行業(yè)高度認可

    從 2025 年主流芯片集成數(shù)百億晶體管,到 Cerebras WSE 晶圓級芯片的 46,225mm2 超大面積(相當(dāng)于 56 個英偉達
    的頭像 發(fā)表于 02-25 15:18 ?681次閱讀
    廣立微QuanTest-YAD良率感知大數(shù)據(jù)診斷分析平臺獲得行業(yè)高度認可

    馬斯克:AI5芯片設(shè)計進展順利,特斯拉AI戰(zhàn)略邁入新階段

    5芯片將是一款“性能非常強大”的產(chǎn)品,單顆SoC性能可媲美英偉達Hopper級別,雙芯配置則接近Blackwell級別,但成本與功耗顯著更低。根據(jù)技術(shù)參數(shù),AI5芯片的算力密度達單芯片
    的頭像 發(fā)表于 01-19 14:05 ?5747次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    新聞?wù)?● Nemotron 3 系列開放模型包含 Nano、Super 和 Ultra 三種規(guī)模,具有極高的效率和領(lǐng)先的精度,適用于代理式 AI 應(yīng)用開發(fā)。 ● Nemotron 3 Nano
    的頭像 發(fā)表于 12-16 09:27 ?869次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>推出</b> Nemotron <b class='flag-5'>3</b> 系列開放模型

    亞馬遜發(fā)布新一代AI芯片Trainium3,性能提升4

    Trainium 4的開發(fā)計劃。亞馬遜表示,這款芯片能夠英偉達市場領(lǐng)先的圖形處理單元(GPU)更便宜、更高效地驅(qū)動AI模型背后的密集計算。 ? ? 作為亞馬遜首款3納米工藝
    的頭像 發(fā)表于 12-09 08:37 ?8930次閱讀
    亞馬遜發(fā)布新一代<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>Trainium<b class='flag-5'>3</b>,性能提升4<b class='flag-5'>倍</b>

    NVIDIA推出面向語言、機器人和生物學(xué)的全新開源AI技術(shù)

    NVIDIA 秉持對開源的長期承諾,推出了面向語言、機器人和生物學(xué)的全新開源 AI 技術(shù),為構(gòu)建開源生態(tài)系統(tǒng)做出貢獻,擴展 AI 的普及并推動創(chuàng)新。
    的頭像 發(fā)表于 11-06 11:49 ?1326次閱讀

    BPI-AIM7 RK3588 AINvidia Jetson Nano 生態(tài)系統(tǒng)兼容的低功耗 AI 模塊

    260 針金手指設(shè)計 :機械上與 Jetson Nano 載板 100% 兼容,可重復(fù)使用現(xiàn)有硬件投資。 PCIe 3.0 x4高速通道 :支持外部AI加速器(例如TensorRT加速器)。 3
    發(fā)表于 10-11 09:08

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    的我我們講解了這幾種芯片的應(yīng)用場景,設(shè)計流程、結(jié)構(gòu)等。 CPU: 還為我們講解了一種算法:哈希表算法 GPU: 介紹了英偉達H100GPU芯片。使用了一下關(guān)鍵技術(shù): ①張量核
    發(fā)表于 09-12 16:07

    英偉達 H100 GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    H100服務(wù)器停工一天損失的算力成本可能維修費還高。今天,我們給大家總結(jié)一套“防掉卡秘籍”,從日常管理到環(huán)境把控,手把手教你把掉卡風(fēng)險壓到最低。一、供電是“生命線”,這3點必須盯緊H100
    的頭像 發(fā)表于 09-05 11:03 ?1518次閱讀
    英偉達 <b class='flag-5'>H100</b> GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    NVIDIA 將恢復(fù)H20芯片在中國的銷售 NVIDIA CEO 黃仁勛在美國和中國加大推廣AI

    NVIDIA 將恢復(fù) H20 在中國的銷售,并宣布推出面向中國市場的全新且完全兼容的 GPU。 本月,NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛在美國和中國推廣
    的頭像 發(fā)表于 07-15 11:03 ?2212次閱讀

    借助美光9550高性能SSD提升AI工作負載

    推理將成為數(shù)據(jù)中心最常見的工作負載,這一點毋庸置疑。隨著數(shù)據(jù)中日益廣泛采用NVIDIA H100,以及非NVL72系統(tǒng)開始部署NVIDIA DGX B200,計算能力正迎來爆炸式增長。
    的頭像 發(fā)表于 07-14 15:58 ?1805次閱讀
    借助美光9550高性能SSD提升<b class='flag-5'>AI</b>工作負載

    NVIDIA推出全新智慧城市AI Blueprint

    面向智慧城市 AINVIDIA Omniverse Blueprint 集成了 NVIDIA Omniverse、Cosmos、NeMo 和 Metropolis,已被多家領(lǐng)先的獨立軟件供應(yīng)商 (ISV) 合作伙伴采用,以
    的頭像 發(fā)表于 06-16 14:21 ?1371次閱讀

    NVIDIA推出NVLink Fusion技術(shù)

    NVIDIA 發(fā)布 NVIDIA NVLink Fusion,這款全新芯片將助力行業(yè)用戶通過全球領(lǐng)先且廣泛采用的計算互連架構(gòu) —— NVIDIA NVLink 打造的強健合作伙伴生態(tài)系
    的頭像 發(fā)表于 05-22 09:59 ?1038次閱讀
    子长县| 登封市| 南澳县| 大庆市| 潢川县| 喀喇沁旗| 栾川县| 马公市| 厦门市| 宁阳县| 社旗县| 山东省| 都匀市| 西青区| 封丘县| 台湾省| 陈巴尔虎旗| 瑞安市| 渝北区| 泗阳县| 吉首市| 拜泉县| 景东| 临漳县| 南通市| 安西县| 克什克腾旗| 双牌县| 安丘市| 汝州市| 合阳县| 平湖市| 广水市| 二手房| 大港区| 南部县| 镇江市| 抚宁县| 克拉玛依市| 越西县| 武安市|