日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Arm Neoverse N2平臺(tái)實(shí)現(xiàn)DeepSeek-R1滿血版部署

Arm社區(qū) ? 來源:Arm社區(qū) ? 2025-07-03 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今年年初,開源大語言模型 (LLM) DeepSeek 在國內(nèi)外人工智能 (AI) LLM 領(lǐng)域掀起熱議。它在模型架構(gòu)和訓(xùn)練、推理方法上實(shí)現(xiàn)創(chuàng)新,在性能和工程效率上帶來了顯著提升,并在成本效率方面頗具優(yōu)勢。Arm 攜手合作伙伴,在 Arm Neoverse N2 平臺(tái)上使用開源推理框架 llama.cpp 實(shí)現(xiàn) DeepSeek-R1 滿血版的部署,目前已可提供線上服務(wù)。

在基于 Neoverse N2 平臺(tái)設(shè)計(jì)的服務(wù)器級(jí) CPU 上,通過對(duì)軟硬件架構(gòu)的合理適配,以及出色調(diào)優(yōu)來充分發(fā)揮平臺(tái)的計(jì)算能力和內(nèi)存帶寬,能夠以 INT8 的量化版本提供業(yè)界可用的詞元 (token) 生成速度,并以更具競爭力的性價(jià)比為中小微企業(yè)提供業(yè)界頂尖的 LLM 服務(wù)。

在部署 DeepSeek 大模型過程中,Arm 結(jié)合底層架構(gòu)特性進(jìn)行了深度優(yōu)化:模型本身跨多 ?NUMA(非統(tǒng)一內(nèi)存訪問)節(jié)點(diǎn)以交錯(cuò) (interleave) 方式加載,以便充分利用所有內(nèi)存帶寬;除 INT8 量化外,通過開啟 KV 量化,以及激活 Flash Attention 機(jī)制,以此進(jìn)一步降低計(jì)算量和壓縮內(nèi)存占用。通過技術(shù)團(tuán)隊(duì)的努力,DeepSeek 滿血版的整體性能相較優(yōu)化前提升了 67%。工程團(tuán)隊(duì)后續(xù)也會(huì)持續(xù)投入,提高多節(jié)點(diǎn)上的計(jì)算并發(fā)度及帶寬利用率,并通過開發(fā)者社區(qū)不斷完善 Arm 架構(gòu)的軟件生態(tài)。

細(xì)究 DeepSeek 的模型架構(gòu)創(chuàng)新,它針對(duì)大模型運(yùn)行時(shí)的痛點(diǎn)進(jìn)行計(jì)算、內(nèi)存訪問和算法流水線上的效率提升,比如 MLA 和 FP8 訓(xùn)練和推理減少了內(nèi)存占用和帶寬需求,DeepSeekMoE 降低了計(jì)算強(qiáng)度、提高計(jì)算效率,DualPipe 提高了多計(jì)算節(jié)點(diǎn)間的通信和計(jì)算效率。這些工程優(yōu)化思維與 Arm 一貫倡導(dǎo)的高能效設(shè)計(jì)目標(biāo)不謀而合,也使得在純 CPU 平臺(tái)上運(yùn)行如此大規(guī)模的模型成為可能。

Arm 平臺(tái)致力于助力合作伙伴提高性能,并降低總體擁有成本 (TCO),在 Neoverse N2 平臺(tái)運(yùn)行 DeepSeek 大模型推理也淋漓盡致地體現(xiàn)了這一原則。在為中小微企業(yè)提供大模型服務(wù)時(shí),并發(fā)需求降低,成本敏感度提高。在基于 Neoverse N2 平臺(tái)上運(yùn)行的 DeepSeek-R1 為他們提供了一個(gè)更為均衡的選擇。相較傳統(tǒng)多卡 GPU/加速器平臺(tái),這能極大地降低訂閱服務(wù)成本,使用戶能以較低代價(jià)快速啟動(dòng)業(yè)務(wù)部署。下圖是兩種方案訂閱服務(wù)的價(jià)格對(duì)比:

826368a6-532f-11f0-b715-92fbcf53809c.png

搭載 Neoverse N2 平臺(tái)的服務(wù)器平臺(tái)能把部署成本降低約八倍。此外,對(duì)數(shù)據(jù)中心來說,在 CPU 上部署 LLM 也能充分利用在線的空閑算力,提高整體資源利用率。與此同時(shí),基于 Neoverse N2 平臺(tái)的服務(wù)器功耗僅為傳統(tǒng)八卡 GPU 服務(wù)器的 1/12,能極大地降低數(shù)據(jù)中心的能耗壓力。

如此大規(guī)模的模型(6,710億參數(shù))能夠在數(shù)據(jù)中心服務(wù)器級(jí) CPU 上運(yùn)行,并迅速上線為客戶提供快速部署,得益于 Neoverse 平臺(tái)對(duì) AI 推理負(fù)載的一貫思考和設(shè)計(jì),包括 2 x 128 位的可伸縮向量擴(kuò)展 (SVE2) 特性、BF16/INT8 數(shù)據(jù)格式支持,以及點(diǎn)積和矩陣乘法等指令的支持,加之多通道高帶寬內(nèi)存配置,和低延遲 CMN 互聯(lián)等等。

隨著 AI 領(lǐng)域的飛速發(fā)展,LLM 在持續(xù)的工程創(chuàng)新和優(yōu)化之下應(yīng)用領(lǐng)域不斷變廣。Arm 將持續(xù)通過 Neoverse 平臺(tái)為行業(yè)賦能,并在這一新的技術(shù)紀(jì)元中引領(lǐng)變革。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • ARM
    ARM
    +關(guān)注

    關(guān)注

    135

    文章

    9589

    瀏覽量

    393778
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50366

    瀏覽量

    267046
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    855

    瀏覽量

    3413

原文標(biāo)題:在 Arm Neoverse N2 平臺(tái)上以更優(yōu)成本、更低功耗,充分釋放 DeepSeek-R1 滿血版性能

文章出處:【微信號(hào):Arm社區(qū),微信公眾號(hào):Arm社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度騰訊搶灘布局!DeepSeek-R1升級(jí)和開源背后,國產(chǎn)AI的逆襲之路

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)日前,DeepSeek官方宣布DeepSeek-R1模型已完成小版本試升級(jí),當(dāng)前版本為DeepSeek-R1-0528。次日,DeepSeek-R1-05
    的頭像 發(fā)表于 06-03 06:34 ?6417次閱讀

    如何在Arm Neoverse N2平臺(tái)上提升llama.cpp擴(kuò)展性能

    跨 NUMA 內(nèi)存訪問可能會(huì)限制 llama.cpp 在 Arm Neoverse 平臺(tái)上的擴(kuò)展能力。本文將為你詳細(xì)分析這一問題,并通過引入原型驗(yàn)證補(bǔ)丁來加以解決。測試結(jié)果表明,在基于 Neo
    的頭像 發(fā)表于 02-11 10:06 ?326次閱讀

    Arm Neoverse平臺(tái)集成NVIDIA NVLink Fusion

    生態(tài)系統(tǒng),實(shí)現(xiàn)全緩存一致性與高帶寬互連。 隨著 AI 數(shù)據(jù)中心對(duì) Arm Neoverse 的需求持續(xù)增長,客戶在將工作負(fù)載加速器連接至 Arm
    的頭像 發(fā)表于 11-26 11:08 ?587次閱讀

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺(tái)上成功部署并運(yùn)行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側(cè)AI設(shè)備的處理效率與智能化水平,特別是在本地化復(fù)雜
    的頭像 發(fā)表于 09-26 13:35 ?1008次閱讀

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實(shí)現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4728次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的<b class='flag-5'>實(shí)現(xiàn)</b>與優(yōu)化

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用強(qiáng)化學(xué)習(xí)進(jìn)行后訓(xùn)練,旨在提升推理能力,尤其擅
    的頭像 發(fā)表于 07-25 15:22 ?1599次閱讀
    速看!EASY-EAI教你離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】--全書概覽

    講解Deepseek的使用方法 第三章 深入剖析Deepseek-V3的模型架構(gòu)、訓(xùn)練框架、推理階段優(yōu)化、后訓(xùn)練優(yōu)化等關(guān)鍵技術(shù) 第四章關(guān)于DeepSeek-R1的技術(shù)剖析 第五章 從宏觀角度分析
    發(fā)表于 07-21 00:04

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    1、ollama平臺(tái)搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺(tái),可以在多平臺(tái)上部署
    發(fā)表于 07-19 15:45

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書籍介紹+第一章讀后心得

    ,并同步開源了 模型權(quán)重。DeepSeek-R1是基于DeepSeek-V3基座模型開發(fā)的,專門針對(duì)高級(jí)推理任務(wù)進(jìn)行 了優(yōu)化。該模型在后訓(xùn)練階段大規(guī)模使用強(qiáng)化學(xué)習(xí)技術(shù),通過創(chuàng)新的訓(xùn)練方法,實(shí)現(xiàn)了強(qiáng)大
    發(fā)表于 07-17 11:59

    NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場景中的性能紀(jì)錄

    本文將探討 NVIDIA TensorRT-LLM 如何基于 8 個(gè) NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延遲場景中的性能紀(jì)錄:在 GTC 2025
    的頭像 發(fā)表于 07-02 19:31 ?3615次閱讀
    NVIDIA Blackwell GPU優(yōu)化<b class='flag-5'>DeepSeek-R1</b>性能 打破<b class='flag-5'>DeepSeek-R1</b>在最小延遲場景中的性能紀(jì)錄

    【書籍評(píng)測活動(dòng)NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    2025年年初,DeepSeek 成為全球人工智能(AI)領(lǐng)域的焦點(diǎn),其DeepSeek-V3 和DeepSeek-R1 版本在行業(yè)內(nèi)引發(fā)了結(jié)構(gòu)性震動(dòng)。 DeepSeek-V3 是一個(gè)
    發(fā)表于 06-09 14:38

    DeepSeek開源新版R1 媲美OpenAI o3

    DeepSeek“悄悄”地又放了一個(gè)大招,DeepSeek開源了R1最新0528版本。盡管DeepSeek目前還沒有對(duì)該版本進(jìn)行任何說明,但是根據(jù)著名代碼測試
    的頭像 發(fā)表于 05-29 11:23 ?1545次閱讀

    使用瑞薩MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大語言模型(LLM)可用于理解人類語言的交互方式,思考,并給出合適的回應(yīng)。
    的頭像 發(fā)表于 05-15 14:40 ?1160次閱讀
    使用瑞薩MPU芯片RZ/V<b class='flag-5'>2</b>H<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek-R1</b>模型

    瑞薩RZ/V2H平臺(tái)支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺(tái)支持部署離線版DeepSeek -R1大語言模型
    的頭像 發(fā)表于 05-13 17:07 ?1883次閱讀
    瑞薩RZ/V<b class='flag-5'>2</b>H<b class='flag-5'>平臺(tái)</b>支持<b class='flag-5'>部署</b>離線版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大語言模型

    AMD實(shí)現(xiàn)首個(gè)基于臺(tái)積電N2制程的硅片里程碑

    代號(hào)為“Venice”的新一代AMD EPYC CPU是首款基于臺(tái)積電新一代N2制程的高性能計(jì)算產(chǎn)品。 ? AMD表示,其代號(hào)為“Venice”的新一代AMD EPYC?處理器是業(yè)界首款完成流片并
    的頭像 發(fā)表于 05-06 14:46 ?922次閱讀
    AMD<b class='flag-5'>實(shí)現(xiàn)</b>首個(gè)基于<b class='flag-5'>臺(tái)</b>積電<b class='flag-5'>N2</b>制程的硅片里程碑
    尖扎县| 昔阳县| 铜山县| 武夷山市| 博爱县| 尼木县| 普格县| 乐清市| 福建省| 北宁市| 临澧县| 新邵县| 政和县| 阿鲁科尔沁旗| 剑河县| 乌兰浩特市| 蓬安县| 山丹县| 孟州市| 来凤县| 四子王旗| 高密市| 老河口市| 陕西省| 永胜县| 土默特右旗| 莱芜市| 洛隆县| 重庆市| 赤城县| 嘉定区| 颍上县| 郧西县| 西林县| 亚东县| 景谷| 库车县| 江油市| 瑞丽市| 大港区| 饶河县|