日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ORinNano離線部署Deepseek R1大模型教程

ljx2016 ? 來(lái)源:ljx2016 ? 作者:ljx2016 ? 2025-04-10 15:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. Deepseek簡(jiǎn)介

DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用強(qiáng)化學(xué)習(xí)進(jìn)行后訓(xùn)練,旨在提升推理能力,尤其擅長(zhǎng)數(shù)學(xué)、代碼和自然語(yǔ)言推理等復(fù)雜任務(wù)。作為國(guó)產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。

本文主要說(shuō)明DeepSeek-R1如何離線運(yùn)行在EASY-EAI-Orin-Nano(RK3576)硬件上, RK3576 具有優(yōu)異的端側(cè)AI能效比與極高的性價(jià)比,是AI落地的不二之選。

wKgZPGf3dJGANQs8AAKMEq82LEI341.jpgwKgZO2f3dJGAEPrzAA8S8oQ1sJE106.png

2. 開(kāi)發(fā)環(huán)境搭建

2.1 RKLLM-Toolkit安裝

本節(jié)主要說(shuō)明如何通過(guò) pip 方式來(lái)安裝 RKLLM-Toolkit,用戶可以參考以下的具體流程說(shuō)明完成 RKLLM-Toolkit 工具鏈的安裝。

工具安裝包鏈接: https://pan.baidu.com/s/1y5ZN5sl4e3HJI5d9Imt4pg?pwd=1234(提取碼: 1234)。

wKgZPGf3dJGAJ09mAAEtI4AlA3g058.jpg

2.1.1 安裝miniforge3工具

為防止系統(tǒng)對(duì)多個(gè)不同版本的 Python 環(huán)境的需求,建議使用 miniforge3 管理 Python 環(huán)境。 檢查是否安裝 miniforge3 和 conda 版本信息,若已安裝則可省略此小節(jié)步驟。

下載 miniforge3 安裝包:

wget -c https://mirrors.bfsu.edu.cn/github-release/conda-forge/miniforge/LatestRelease/Miniforge3-Linux-x86_64.sh

安裝miniforge3:

chmod 777 Miniforge3-Linux-x86_64.sh
bash Miniforge3-Linux-x86_64.sh

2.1.2 創(chuàng)建 RKLLM-Toolkit Conda 環(huán)境

進(jìn)入 Conda base 環(huán)境:

source ~/miniforge3/bin/activate

創(chuàng)建一個(gè) Python3.8 版本(建議版本)名為 RKLLM-Toolkit 的 Conda 環(huán)境:

conda create -n RKLLM-Toolkit python=3.8

進(jìn)入 RKLLM-Toolkit Conda 環(huán)境:

conda activate RKLLM-Toolkit

wKgZO2f3dJGACEiGAACGr3xjCK8314.png

2.1.3 安裝RKLLM-Toolkit

在 RKLLM-Toolkit Conda 環(huán)境下使用 pip 工具直接安裝所提供的工具鏈 whl 包,在安裝過(guò)程 中,安裝工具會(huì)自動(dòng)下載 RKLLM-Toolkit 工具所需要的相關(guān)依賴包。

pip3 install nvidia_cublas_cu12-12.1.3.1-py3-none-manylinux1_x86_64.whl
pip3 install torch-2.1.0-cp38-cp38-manylinux1_x86_64.whl
pip3 install rkllm_toolkit-1.1.4-cp38-cp38-linux_x86_64.whl

若在安裝的過(guò)程中,某些文件安裝很慢,可以登錄python官網(wǎng)單獨(dú)下載:

https://pypi.org/

執(zhí)行以下命令沒(méi)有報(bào)錯(cuò),則安裝成功。

wKgZPGf3dJKANl-aAACzdH6ZGzg764.png

3. Deepseek-R1模型轉(zhuǎn)換

本章主要說(shuō)明如何實(shí)現(xiàn)Deepseek-R1大語(yǔ)言模型如何轉(zhuǎn)換為RKLLM模型。

wKgZO2f3dJKAF743AACu6FmaZEM101.jpg

3.1 模型與腳本下載

本節(jié)提供兩種大模型文件,Hugging face的原始模型和轉(zhuǎn)換完成的NPU模型。

wKgZPGf3dJKANJEZAAAspf-Kql4349.png

還有用于模型轉(zhuǎn)換的腳本:

wKgZO2f3dJKAEi9XAAAgeTAakmY644.png

下載鏈接: https://pan.baidu.com/s/1yLALcGl4jUupU8BZvU9xcA?pwd=1234 (提取碼: 1234)。

3.2 模型轉(zhuǎn)換

下載完成后模型和腳本放到同一個(gè)目錄:

wKgZPGf3dJKAIvzPAACYg6U3Yrg123.png

在RKLLM-Toolkit環(huán)境,執(zhí)行以下指令進(jìn)行模型轉(zhuǎn)換:

wKgZO2f3dJOASTXqAAEl_b06QpA717.png

至此模型轉(zhuǎn)換成功,生成deepseek_w4a16.rkllm NPU化的大模型文件:

wKgZPGf3dJOAATqqAACmyttkt7o723.png

test.py轉(zhuǎn)換腳本如下所示, 用于轉(zhuǎn)換deepseek-r1模型:

from rkllm.api import RKLLM
from datasets import load_dataset
from transformers import AutoTokenizer
from tqdm import tqdm
import torch
from torch import nn
import os
# os.environ['CUDA_VISIBLE_DEVICES']='1'


modelpath = '/home/developer/RKLLM-Toolkit/DeepSeek-R1-Distill-Qwen-1.5B'
llm = RKLLM()

# Load model
# Use 'export CUDA_VISIBLE_DEVICES=2' to specify GPU device
# options ['cpu', 'cuda']
ret = llm.load_huggingface(model=modelpath, model_lora = None, device='cpu')
# ret = llm.load_gguf(model = modelpath)
if ret != 0:
    print('Load model failed!')
    exit(ret)

# Build model
dataset = "./data_quant.json"
# Json file format, please note to add prompt in the input,like this:
# [{"input":"Human: 你好!nAssistant: ", "target": "你好!我是人工智能助手KK!"},...]

qparams = None
# qparams = 'gdq.qparams' # Use extra_qparams
ret = llm.build(do_quantization=True, optimization_level=1, quantized_dtype='w4a16',
                quantized_algorithm='normal', target_platform='rk3576', num_npu_core=2, extra_qparams=qparams, dataset=None)

if ret != 0:
    print('Build model failed!')
    exit(ret)

# Chat with model
messages = "<|im_start|?>system You are a helpful assistant.<|im_end|?><|im_start|?>user你好!n<|im_end|?><|im_start|?>assistant"
kwargs = {"max_length": 128, "top_k": 1, "top_p": 0.8,
          "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1}
# print(llm.chat_model(messages, kwargs))


# Export rkllm model
ret = llm.export_rkllm("./deepseek_r1_rk3576_w4a16.rkllm")
if ret != 0:
print('Export model failed!')

4. Deepseek-R1模型部署

本章主要說(shuō)明RKLLM格式的NPU模型如何運(yùn)行在EASY-EAI-Orin-Nano硬件上。

wKgZO2f3dJOALp0SAAAnUhf_Byc762.png

下載鏈接:https://pan.baidu.com/s/1B-DZTI-Q6i__b6Tdsrk_Ow?pwd=1234(提取碼: 1234)。

然后把例程【復(fù)制粘貼】到nfs掛載目錄中。(不清楚目錄如何構(gòu)建的,可以參考《入門(mén)指南/開(kāi)發(fā)環(huán)境準(zhǔn)備/nfs服務(wù)搭建與掛載》)。特別注意:源碼目錄和模型最好cp到板子上,如/userdata,否則在nfs目錄執(zhí)行大模型會(huì)導(dǎo)致模型初始化過(guò)慢。

wKgZPGf3dJOAHP_UAACltj5zwfg442.png

進(jìn)入到開(kāi)發(fā)板對(duì)應(yīng)的例程目錄執(zhí)行編譯操作,具體命令如下所示:

cd /userdata/deepseek-demo/
./build.sh
wKgZO2f3dJSAU_paAAEmHi_N9ug591.png

4.1 例程運(yùn)行及效果

進(jìn)入例程的deepseek-demo/deepseek-demo_release目錄,執(zhí)行下方命令,運(yùn)行示例程序:

cd deepseek-demo_release/
ulimit -HSn 102400 
./deepseek-demo deepseek_w4a16.rkllm 256 512
wKgZPGf3dJSAemGBAACWWOfr2dg968.png

至此可以進(jìn)行對(duì)話測(cè)試了,試著輸入“直角三角形兩直角邊是3和4,斜邊是多少?”?;卮鹑缦滤?

wKgZO2f3dJSAd0gWAAEciJ_SCGQ389.png

4.2 RKLLM算法例程

例程目錄為rkllm-demo/src/main.cpp,操作流程如下。

wKgZPGf3dJSAKuyEAACUr3WjVwc084.jpg

具體代碼如下所示:

#include 
#include 
#include 
#include "rkllm.h"
#include 
#include 
#include 
#include 

#define PROMPT_TEXT_PREFIX "<|im_start|?>system You are a helpful assistant. <|im_end|?> <|im_start|?>user"
#define PROMPT_TEXT_POSTFIX "<|im_end|?><|im_start|?>assistant"


using namespace std;
LLMHandle llmHandle = nullptr;

void exit_handler(int signal)
{
    if (llmHandle != nullptr)
    {
        {
            cout last_hidden_layer.embd_size != 0 && result->last_hidden_layer.num_tokens != 0) {
            int data_size = result->last_hidden_layer.embd_size * result->last_hidden_layer.num_tokens * sizeof(float);
            printf("ndata_size:%d",data_size);
            std::ofstream outFile("last_hidden_layer.bin", std::ios::binary);
            if (outFile.is_open()) {
                outFile.write(reinterpret_cast(result->last_hidden_layer.hidden_states), data_size);
                outFile.close();
                std::cout text);
    }
}

int main(int argc, char **argv)
{
    if (argc < 4) {
        std::cerr 

5. 資料獲取

完整資料包的下載鏈接:https://pan.baidu.com/s/1FY7XHwQydqRPuTxdQezhyw?pwd=1234(提取碼:1234)。

wKgZO2f3dJWAddihAAARxLht0wE180.png

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3797

    瀏覽量

    5279
  • rk3576
    +關(guān)注

    關(guān)注

    1

    文章

    304

    瀏覽量

    1685
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    855

    瀏覽量

    3414
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在ZYNQ本地部署DeepSeek模型

    一個(gè)將最小號(hào) DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項(xiàng)目。
    的頭像 發(fā)表于 12-19 15:43 ?7871次閱讀
    如何在ZYNQ本地<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語(yǔ)言模型(LLM)的應(yīng)用日益普及,許多開(kāi)發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實(shí)現(xiàn)私有化、定制化服務(wù)并保障數(shù)據(jù)安全。本文將詳細(xì)闡述
    的頭像 發(fā)表于 10-13 16:52 ?1182次閱讀

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺(tái)上成功部署并運(yùn)行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側(cè)AI設(shè)備的處理效率與智能化水平,特別是在本地化復(fù)雜
    的頭像 發(fā)表于 09-26 13:35 ?1011次閱讀

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    。我們?cè)谥暗牟┛蚚1] 中介紹了 DeepSeek-R1 模型實(shí)現(xiàn)超低推理延遲的關(guān)鍵優(yōu)化措施。本文將深入探討 TensorRT-LLM 中的 MTP 實(shí)現(xiàn)與優(yōu)化。
    的頭像 發(fā)表于 08-30 15:47 ?4735次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    如何在NVIDIA Blackwell GPU上優(yōu)化DeepSeek R1吞吐量

    開(kāi)源 DeepSeek R1 模型的創(chuàng)新架構(gòu)包含多頭潛在注意力機(jī)制 (MLA) 和大型稀疏混合專家模型 (MoE),其顯著提升了大語(yǔ)言模型
    的頭像 發(fā)表于 08-12 15:19 ?4526次閱讀
    如何在NVIDIA Blackwell GPU上優(yōu)化<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>吞吐量

    速看!EASY-EAI教你離線部署Deepseek R1模型

    1.Deepseek簡(jiǎn)介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用
    的頭像 發(fā)表于 07-25 15:22 ?1601次閱讀
    速看!EASY-EAI教你<b class='flag-5'>離線</b><b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開(kāi)源大語(yǔ)言模型部署

    1、ollama平臺(tái)搭建 ollama可以快速地部署開(kāi)源大模型,網(wǎng)址為https://ollama.com, 試用該平臺(tái),可以在多平臺(tái)上部署 Dee
    發(fā)表于 07-19 15:45

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書(shū)籍介紹+第一章讀后心得

    的展望,大模型的訓(xùn)練方法、推理部署,到 GPU 硬件及推理模型的發(fā)展趨勢(shì),以前瞻性的視角為讀者描繪了大模型的發(fā)展藍(lán)圖。 技驚四座的DeepSee
    發(fā)表于 07-17 11:59

    Arm Neoverse N2平臺(tái)實(shí)現(xiàn)DeepSeek-R1滿血版部署

    頗具優(yōu)勢(shì)。Arm 攜手合作伙伴,在 Arm Neoverse N2 平臺(tái)上使用開(kāi)源推理框架 llama.cpp 實(shí)現(xiàn) DeepSeek-R1 滿血版的部署,目前已可提供線上服務(wù)。
    的頭像 發(fā)表于 07-03 14:37 ?1454次閱讀
    Arm Neoverse N2平臺(tái)實(shí)現(xiàn)<b class='flag-5'>DeepSeek-R1</b>滿血版<b class='flag-5'>部署</b>

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.62】一本書(shū)讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    。DeepSeek-V3 的發(fā)布幾乎沒(méi)有預(yù)熱和炒作,僅憑借其出色的效果和超低的成本迅速走紅。 DeepSeek-R1 則是在 DeepSeek-V3 的基礎(chǔ)上構(gòu)建的推理模型,它在后訓(xùn)練
    發(fā)表于 06-09 14:38

    DeepSeek開(kāi)源新版R1 媲美OpenAI o3

    ;還有一些網(wǎng)友的實(shí)測(cè)評(píng)價(jià)都顯示,?DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性價(jià)比的平替。 此外,關(guān)于DeepSeek
    的頭像 發(fā)表于 05-29 11:23 ?1547次閱讀

    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開(kāi)發(fā)板本地部署DeepSeek模型的完整指南

    ELF 2開(kāi)發(fā)板本地部署DeepSeek模型的完整指南
    的頭像 發(fā)表于 05-16 11:13 ?2798次閱讀
    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開(kāi)發(fā)板本地<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南

    使用瑞薩MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大語(yǔ)言模型(LLM)可用于理解人類語(yǔ)言的交互方式,思考,并給出合適的回應(yīng)。
    的頭像 發(fā)表于 05-15 14:40 ?1164次閱讀
    使用瑞薩MPU芯片RZ/V2H<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>模型</b>

    瑞薩RZ/V2H平臺(tái)支持部署離線DeepSeek -R1大語(yǔ)言模型

    瑞薩RZ/V2H平臺(tái)支持部署離線DeepSeek -R1大語(yǔ)言模型
    的頭像 發(fā)表于 05-13 17:07 ?1888次閱讀
    瑞薩RZ/V2H平臺(tái)支持<b class='flag-5'>部署</b><b class='flag-5'>離線</b>版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大語(yǔ)言<b class='flag-5'>模型</b>

    DeepSeek 引領(lǐng)邊緣 AI 芯片向更高性能、更低功耗、更強(qiáng)泛化能力的方向演進(jìn)

    DeepSeek 系列模型概覽 DeepSeek 系列包括大型語(yǔ)言模型(如 DeepSeek LLM、R
    的頭像 發(fā)表于 05-09 10:27 ?2457次閱讀
    托里县| 邓州市| 平阴县| 敦化市| 察哈| 麻江县| 唐山市| 杨浦区| 望江县| 信阳市| 靖宇县| 四平市| 怀集县| 茌平县| 瓦房店市| 吴江市| 梓潼县| 石首市| 吴旗县| 九龙城区| 商洛市| 南城县| 临潭县| 河南省| 邹平县| 达孜县| 锡林浩特市| 莫力| 云南省| 兴业县| 阿合奇县| 香河县| 开化县| 西林县| 南乐县| 兴文县| 成武县| 东乡族自治县| 九龙坡区| 永新县| 兴海县|