日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA全面加快Meta Llama 3的推理速度

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-04-23 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Meta 最新開(kāi)源大語(yǔ)言模型采用 NVIDIA 技術(shù)構(gòu)建,其經(jīng)過(guò)優(yōu)化后可在云、數(shù)據(jù)中心、邊緣和 PC 的 NVIDIA GPU 上運(yùn)行。

NVIDIA 發(fā)布對(duì)其所有平臺(tái)的優(yōu)化措施,此舉將加快最新一代大語(yǔ)言模型(LLM)Meta Llama 3 的運(yùn)行速度。

在與 NVIDIA 加速計(jì)算相結(jié)合后,該開(kāi)源模型能夠使開(kāi)發(fā)者、研究者和企業(yè)在各種應(yīng)用中負(fù)責(zé)任地進(jìn)行創(chuàng)新。

在 NVIDIA AI 上進(jìn)行訓(xùn)練

Meta 工程師在搭載 24,576 個(gè) NVIDIA Tensor Core GPU 的計(jì)算機(jī)集群上對(duì) Llama 3 進(jìn)行了訓(xùn)練,這些 GPU 通過(guò) RoCE 和 NVIDIA Quantum-2 InfiniBand 網(wǎng)絡(luò)相連。

為進(jìn)一步推動(dòng)生成式 AI 的發(fā)展,Meta 最近介紹了將其基礎(chǔ)設(shè)施擴(kuò)展到 35 萬(wàn)個(gè) NVIDIA GPU 的計(jì)劃。

將 Llama 3 投入使用

通過(guò) NVIDIA GPU 加速的各版本 Llama 3 目前可用于云、數(shù)據(jù)中心、邊緣和 PC。

開(kāi)發(fā)者可通過(guò)瀏覽器在 ai.nvidia.com 上試用 Llama 3。該模型被打包成一項(xiàng)帶有標(biāo)準(zhǔn)應(yīng)用編程接口NVIDIA NIM 微服務(wù),可以部署在任何位置。

企業(yè)可使用 NVIDIA NeMo 和自己的數(shù)據(jù)對(duì) Llama 3 進(jìn)行微調(diào)。NeMo 是一個(gè) LLM 開(kāi)源框架,通過(guò)安全、受支持的 NVIDIA AI Enterprise 平臺(tái)提供。自定義模型可使用 NVIDIA TensorRT-LLM 進(jìn)行推理性能優(yōu)化,并通過(guò) NVIDIA Triton 推理服務(wù)器進(jìn)行部署。

在設(shè)備和 PC 上運(yùn)行 Llama 3

Llama 3 還可在用于機(jī)器人和邊緣計(jì)算設(shè)備的 NVIDIA Jetson Orin 上運(yùn)行,創(chuàng)建類似 Jetson AI Lab 中的交互式代理。

此外,用于工作站和 PC 的 NVIDIA RTXGeForce RTX GPU 也能加快 Llama 3 的推理速度。這些系統(tǒng)將開(kāi)發(fā)者的目標(biāo)范圍擴(kuò)大到全球超過(guò) 1 億臺(tái)由 NVIDIA 提供加速的系統(tǒng)。

利用 Llama 3 獲得最佳性能

為聊天機(jī)器人部署 LLM 的最佳實(shí)踐包括實(shí)現(xiàn)低延遲、快速讀取和最佳 GPU 利用率之間的平衡,并以此來(lái)降低成本。

這種服務(wù)需要以用戶閱讀速度的兩倍(約為每秒 10 個(gè) token)提供 token(大致相當(dāng)于字詞)。

如果在使用 700 億參數(shù)級(jí) Llama 3 進(jìn)行的初步測(cè)試中應(yīng)用這些指標(biāo),那么單個(gè) NVIDIA Tensor Core GPU 每秒可生成約 3,000 個(gè) token,足以同時(shí)為約 300 名用戶提供服務(wù)。

這意味著一臺(tái)搭載 8 個(gè)GPU 的 NVIDIA HGX 服務(wù)器每秒可提供 24,000 個(gè) token,相當(dāng)于同時(shí)支持 2,400 多名用戶,進(jìn)一步降低了成本。

在邊緣設(shè)備方面,80 億參數(shù)版本的 Llama 3 在 Jetson AGX Orin 上每秒可生成多達(dá) 40 個(gè) token,在 Jetson Orin Nano 上每秒可生成多達(dá) 15 個(gè) token。

推進(jìn)社區(qū)模型的發(fā)展

作為一個(gè)積極的開(kāi)源貢獻(xiàn)者,NVIDIA 致力于優(yōu)化社區(qū)軟件,幫助用戶應(yīng)對(duì)最嚴(yán)峻的挑戰(zhàn)。開(kāi)源模型還能提高 AI 的透明度,讓廣大用戶享受到 AI 安全性和彈性方面的工作成果。


審核編輯:劉清
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5696

    瀏覽量

    110144
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    307

    瀏覽量

    6563
  • 邊緣計(jì)算
    +關(guān)注

    關(guān)注

    22

    文章

    3564

    瀏覽量

    53721
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3805

    瀏覽量

    5282

原文標(biāo)題:NVIDIA 全面加快 Meta Llama 3 的推理速度

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    鎖定未來(lái)三年合作!“Meta+博通”2nm ASIC芯片開(kāi)造,劍指“英偉達(dá)+AMD”?

    至?2029?年。根據(jù)協(xié)議,Meta?初步承諾將部署高達(dá)?1GW?采用博通技術(shù)的訓(xùn)練與推理專用的?MTIA?芯片,未來(lái)更將把部署規(guī)模擴(kuò)展至數(shù)個(gè)GW。這一長(zhǎng)期綁定,是Meta作為AI巨頭試圖探索更多降低AI領(lǐng)域投入成本,擺脫對(duì)英偉
    的頭像 發(fā)表于 04-16 09:06 ?4326次閱讀
    鎖定未來(lái)三年合作!“<b class='flag-5'>Meta</b>+博通”2nm ASIC芯片開(kāi)造,劍指“英偉達(dá)+AMD”?

    加快進(jìn)程!Meta計(jì)劃2027年底前推出四代自研AI芯片

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,Meta對(duì)外宣布,計(jì)劃在2027年底前推出四代自研人工智能芯片,旨在滿足自身快速增長(zhǎng)的AI計(jì)算需求,降低對(duì)外部芯片供應(yīng)商的依賴。Meta表示,未來(lái)幾年將陸續(xù)推出
    的頭像 發(fā)表于 03-16 08:57 ?1.2w次閱讀

    MetaNVIDIA達(dá)成多年戰(zhàn)略合作伙伴關(guān)系

    NVIDIA 今天宣布與 Meta 達(dá)成一項(xiàng)多年期、跨多代產(chǎn)品的戰(zhàn)略合作伙伴關(guān)系,涵蓋本地部署、云計(jì)算和 AI 基礎(chǔ)設(shè)施。
    的頭像 發(fā)表于 03-02 14:46 ?658次閱讀

    NVIDIA DGX SuperPOD為Rubin平臺(tái)橫向擴(kuò)展提供藍(lán)圖

    NVIDIA DGX Rubin 系統(tǒng)整合了 NVIDIA 在計(jì)算、網(wǎng)絡(luò)和軟件領(lǐng)域的最新突破,將推理 token 成本降至 NVIDIA Blackwell 平臺(tái)的十分之一,可加速?gòu)?/div>
    的頭像 發(fā)表于 01-14 09:14 ?906次閱讀

    Meta的AI慢性病,靠Manus能治嗎?

    Meta
    腦極體
    發(fā)布于 :2026年01月08日 16:58:02

    如何在NVIDIA Jetson AGX Thor上通過(guò)Docker高效部署vLLM推理服務(wù)

    繼系統(tǒng)安裝與環(huán)境配置后,本期我們將繼續(xù)帶大家深入 NVIDIA Jetson AGX Thor 的開(kāi)發(fā)教程之旅,了解如何在 Jetson AGX Thor 上,通過(guò) Docker 高效部署 vLLM 推理服務(wù)。
    的頭像 發(fā)表于 11-13 14:08 ?4465次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上通過(guò)Docker高效部署vLLM<b class='flag-5'>推理</b>服務(wù)

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺(tái)上的推理性能瓶頸。為實(shí)
    的頭像 發(fā)表于 10-21 11:04 ?1466次閱讀

    NVIDIA Spectrum-X 以太網(wǎng)交換機(jī)助力 Meta 和 Oracle 加速網(wǎng)絡(luò)性能

    基于?NVIDIA Spectrum-X 以太網(wǎng)交換機(jī)的 AI 數(shù)據(jù)中心網(wǎng)絡(luò)。 Meta 和 Oracle 正將 Spectrum-X 以太網(wǎng)交換機(jī)標(biāo)準(zhǔn)化為一種開(kāi)放的加速網(wǎng)絡(luò)架構(gòu),加快大規(guī)模部署,顯著提升 AI 訓(xùn)練效率,并縮短
    的頭像 發(fā)表于 10-14 10:26 ?2114次閱讀
    <b class='flag-5'>NVIDIA</b> Spectrum-X 以太網(wǎng)交換機(jī)助力 <b class='flag-5'>Meta</b> 和 Oracle 加速網(wǎng)絡(luò)性能

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1526次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?2058次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理</b>模型發(fā)布

    NVIDIA三臺(tái)計(jì)算機(jī)解決方案如何協(xié)同助力機(jī)器人技術(shù)

    NVIDIA DGX、基于 NVIDIA RTX PRO 服務(wù)器的 Omniverse 和 Cosmos,以及 Jetson AGX Thor,正全面加速?gòu)娜诵螜C(jī)器人到機(jī)器人工廠等基于物理 AI 的系統(tǒng)的開(kāi)發(fā),貫穿訓(xùn)練、仿真和
    的頭像 發(fā)表于 08-27 11:48 ?2648次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    的發(fā)布持續(xù)深化了雙方的 AI 創(chuàng)新合作。NVIDIANVIDIA Blackwell 架構(gòu)上優(yōu)化了這兩款全新的開(kāi)放權(quán)重模型并實(shí)現(xiàn)了推理性能加速,在 NVIDIA 系統(tǒng)上至高達(dá)到每
    的頭像 發(fā)表于 08-15 20:34 ?2543次閱讀
    <b class='flag-5'>NVIDIA</b>從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS<b class='flag-5'>推理</b>

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開(kāi)源庫(kù),可幫助開(kāi)發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2477次閱讀

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    ServiceNow攜手NVIDIA構(gòu)建150億參數(shù)超級(jí)助手

    Apriel Nemotron 15B 開(kāi)源大語(yǔ)言模型 (LLM) 使用 NVIDIA NeMo、NVIDIA Llama Nemotron 開(kāi)放數(shù)據(jù)集以及 ServiceNow 專業(yè)領(lǐng)域數(shù)據(jù)創(chuàng)建而成,并在
    的頭像 發(fā)表于 05-12 15:37 ?1078次閱讀
    上思县| 岑巩县| 平阴县| 青川县| 扎兰屯市| 府谷县| 徐水县| 富平县| 雷州市| 广灵县| 恩平市| 满洲里市| 南宫市| 盱眙县| 扎鲁特旗| 新化县| 北宁市| 郑州市| 论坛| 鹤壁市| 三原县| 和林格尔县| 蓝田县| 托克逊县| 成武县| 康保县| 乌海市| 正安县| 财经| 安徽省| 敖汉旗| 拜城县| 长顺县| 元朗区| 潼南县| 牟定县| 普宁市| 隆德县| 闵行区| 枝江市| 明水县|