日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

瑞芯微(EASY EAI)RV1126B 模型轉換API說明

廣州靈眸科技有限公司 ? 2026-05-06 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. API詳細說明

1.1 RKNN初始化及釋放

在使用RKNN-Toolkit2的所有API接口時,都需要先調(diào)用RKNN()方法初始化RKNN對象,不再使用該對象時通過調(diào)用該對象的release()方法進行釋放。

初始化RKNN對象時,可以設置verbose和verbose_file參數(shù),以打印詳細的日志信息。其中verbose參數(shù)指定是否要打印詳細日志信息;如果設置了verbose_file參數(shù),且verbose參數(shù)值為True,日志信息還將寫到該參數(shù)指定的文件中。

舉例如下:

# 打印詳細的日志信息
rknn = RKNN(verbose=True)

…

rknn.release()

1.2 模型配置


在構建RKNN模型之前,需要先對模型進行通道均值、量化圖片RGB2BGR轉換、量化類型等的配置,這些操作可以通過config接口進行配置。

v2-8d9bf3259906ecf23eaed3df08b3b0fb_720w.webp

舉例如下:

# model config
rknn.config(mean_values=[[103.94, 116.78, 123.68]],
       std_values=[[58.82, 58.82, 58.82]],
       quant_img_RGB2BGR=True,
       target_platform='rk3566')

1.3 模型加載


RKNN-Toolkit2目前支持Caffe、TensorFlow、TensorFlow Lite、ONNX、DarkNet、PyTorch等模型的加載轉換,這些模型在加載時需調(diào)用對應的接口,以下為這些接口的詳細說明。
1.3.1 Caffe模型加載接口

v2-72069950e321348f8aac696bf39fbf51_720w.webp

舉例如下:

# 從當前路徑加載mobilenet_v2模型
ret = rknn.load_caffe(model='./mobilenet_v2.prototxt',
              blobs='./mobilenet_v2.caffemodel')

1.3.2 TensorFlow模型加載接口

舉例如下:

# 從當前目錄加載ssd_mobilenet_v1_coco_2017_11_17模型
ret = rknn.load_tensorflow(tf_pb='./ssd_mobilenet_v1_coco_2017_11_17.pb',
                 inputs=['Preprocessor/sub'],
                 outputs=['concat', 'concat_1'],
                 input_size_list=[[300, 300, 3]])

1.3.3 TensorFlow Lite模型加載接口

v2-bf8aa334aaca2758a168cf05f8cc92f0_720w.webp

舉例如下:

# 從當前目錄加載mobilenet_v1模型
ret = rknn.load_tflite(model='./mobilenet_v1.tflite')

1.3.4 ONNX模型加載

v2-21caa605c4b7950f7f23f97da5cc1802_720w.webp

舉例如下:

# 從當前目錄加載arcface模型
ret = rknn.load_onnx(model='./arcface.onnx')

1.3.5 DarkNet模型加載接口

v2-ac1215309bb2e7b9914009077708f9fb_720w.webp

舉例如下:

# 從當前目錄加載yolov3-tiny模型
ret = rknn.load_darknet(model='./yolov3-tiny.cfg',
               weight='./yolov3.weights')

1.3.6 PyTorch模型加載接口

v2-3754dcd31e2c5a08b22a37a7fb5119d7_720w.webp

舉例如下:

# 從當前目錄加載resnet18模型
ret = rknn.load_pytorch(model='./resnet18.pt',
               input_size_list=[[1,3,224,224]])

1.4 構建RKNN模型

v2-088bb05153d01171419e2d63d050bca0_720w.webp

舉例如下:

# 構建RKNN模型,并且做量化
ret = rknn.build(do_quantization=True, dataset='./dataset.txt')

1.5 導出RKNN模型


通過本工具構建的RKNN模型通過該接口可以導出存儲為RKNN模型文件,用于模型部署。

v2-70345d1487795df13b35a10b188924a5_720w.webp

舉例如下:

# 將構建好的RKNN模型保存到當前路徑的mobilenet_v1.rknn文件中
ret = rknn.export_rknn(export_path='./mobilenet_v1.rknn')

1.6 加載RKNN模型

v2-81e4a762f01efd3e54bb2fb2b6705756_720w.webp

舉例如下:

# 從當前路徑加載mobilenet_v1.rknn模型
ret = rknn.load_rknn(path='./mobilenet_v1.rknn')

1.7 初始化運行時環(huán)境


在模型推理或性能評估之前,必須先初始化運行時環(huán)境,明確模型的運行平臺(具體的目標硬件平臺或軟件模擬器)。

v2-4f0e2ba0a1fe9d9bd220a88540bea111_720w.webp

舉例如下:

# 初始化運行時環(huán)境
ret = rknn.init_runtime(target='rk3566')

1.8 模型推理


在進行模型推理前,必須先構建或加載一個RKNN模型。

v2-b3f0ba199f070da0322aed6e4cc209c8_720w.webp

舉例如下:

對于分類模型,如mobilenet_v1,代碼如下(完整代碼參考example/tflite/mobilent_v1):

# 使用模型對圖片進行推理,得到TOP5結果
outputs = rknn.inference(inputs=[img])
show_outputs(outputs)

輸出的TOP5結果如下:

-----TOP 5-----
[ 156] score:0.928223 class:"Shih-Tzu"
[ 155] score:0.063171 class:"Pekinese, Pekingese, Peke"
[ 205] score:0.004299 class:"Lhasa, Lhasa apso"
[ 284] score:0.003096 class:"Persian cat"
[ 285] score:0.000171 class:"Siamese cat, Siamese"

1.9 評估模型性能

v2-5f947202c0e2180d23075383a403433e_720w.webp

舉例如下:

# 對模型性能進行評估
perf_detail = rknn.eval_perf()

1.10 獲取內(nèi)存使用情況

v2-d0b52fa3035376c922587f4143eb587c_720w.webp

舉例如下:

# 對模型內(nèi)存使用情況進行評估
memory_detail = rknn.eval_memory()

如examples/caffe/mobilenet_v2,它在RK3588上運行時內(nèi)存占用情況如下:

======================================================
Memory Profile Info Dump
======================================================
NPU model memory detail(bytes):
Weight Memory: 3.53 MiB
Internal Tensor Memory: 1.67 MiB
Other Memory: 473.00 KiB
Total Memory: 5.66 MiB

INFO: When evaluating memory usage, we need consider
the size of model, current model size is: 4.09 MiB
======================================================

1.11 查詢SDK版本

v2-7666d533ec1971ddb04b0eeedecca836_720w.webp

舉例如下:

# 獲取SDK版本信息
sdk_version = rknn.get_sdk_version()
print(sdk_version)

返回的SDK信息類似如下:

==============================================
RKNN VERSION:
API: 1.5.2 (8babfea build@2023-08-25T02:31:12)
DRV: rknn_server: 1.5.2 (8babfea build@2023-08-25T10:30:12)
DRV: rknnrt: 1.5.3b13 (42cbca6f5@2023-10-27T10:13:21)
==============================================

1.12 混合量化


1.12.1 hybrid_quantization_step1
使用混合量化功能時,第一階段調(diào)用的主要接口是hybrid_quantization_step1,用于生成臨時模型文件(.model)、數(shù)據(jù)文件(.data)和量化配置文件
(.quantization.cfg)。接口詳情如下:

v2-c8fee8b94e4515a46810e52f26b1cce5_720w.webp

舉例如下:

# 調(diào)用hybrid_quantization_step1 產(chǎn)生量化配置文件
ret = rknn.hybrid_quantization_step1(dataset='./dataset.txt')

1.12.2 hybrid_quantization_step2
用于使用混合量化功能時生成RKNN模型,接口詳情如下:

v2-20a83dccc9d0be63bb0d05d92a9bb5d6_720w.webp

舉例如下:

# Call hybrid_quantization_step2 to generate hybrid quantized RKNN model
ret = rknn.hybrid_quantization_step2(
           model_input='./ssd_mobilenet_v2.model',
           data_input='./ssd_mobilenet_v2.data',
           model_quantization_cfg='./ssd_mobilenet_v2.quantization.cfg')

1.13 量化精度分析


該接口的功能是進行浮點、量化推理并產(chǎn)生每層的數(shù)據(jù),并進行量化精度分析。

v2-aeb2b31e0783f924b38ae5a1dfee2e66_720w.webp

舉例如下:

# Accuracy analysis
ret = rknn.accuracy_analysis(inputs=['./dog_224x224.jpg'])

1.14 獲取設備列表

v2-9ae6a497358a5f932f4ceb71b9bcd9bb_720w.webp

舉例如下:

rknn.list_devices()

返回的設備列表信息如下:

*************************
all device(s) with adb mode:
VD46C3KM6N
*************************

注:使用多設備時,需要保證它們的連接模式都是一致的,否則會引起沖突,導致設備連接失敗。

1.15 導出加密模型


該接口的功能是將普通的RKNN模型進行加密,得到加密后的模型。

v2-0a21ae27fc11a78cf8cfb9943f8d7c7d_720w.webp

舉例如下:

ret = rknn.export_encrypted_rknn_model('test.rknn')

1.16 注冊自定義算子


該接口的功能是注冊一個自定義算子。

v2-6eea2c38b3ea9a1bb8185ea3d54d7cfe_720w.webp

舉例如下:

import numpy as np
from rknn.api.custom_op import get_node_attr
class cstSoftmax:
  op_type = 'cstSoftmax'
  def shape_infer(self, node, in_shapes, in_dtypes):
    out_shapes = in_shapes.copy()
    out_dtypes = in_dtypes.copy()
    return out_shapes, out_dtypes
  def compute(self, node, inputs):
    x = inputs[0]
    axis = get_node_attr(node, 'axis')
    x_max = np.max(x, axis=axis, keepdims=True)
    tmp = np.exp(x - x_max)
    s = np.sum(tmp, axis=axis, keepdims=True)
    outputs = [tmp / s]
    return outputs

ret = rknn.reg_custom_op(cstSoftmax)

1.17 生成C++部署示例

v2-96b6b4f8dd836be1277347e2ef7b1dee_720w.webp

舉例如下:

ret = rknn.codegen(output_path='./rknn_app_demo',
            inputs=['./mobilenet_v2/dog_224x224.jpg'],
            overwrite=True)
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50376

    瀏覽量

    267087
  • 開發(fā)板
    +關注

    關注

    26

    文章

    6435

    瀏覽量

    121231
  • 瑞芯微
    +關注

    關注

    27

    文章

    863

    瀏覽量

    54682
  • EASY-EAI靈眸科技

    關注

    4

    文章

    111

    瀏覽量

    3729
  • RV1126B
    +關注

    關注

    0

    文章

    100

    瀏覽量

    255
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    (EASY EAI)RV1126B 音頻輸入

    1.聲卡資源介紹EASY-EAI-Nano-TB僅有一塊由RV1126B主控輸出的聲卡。通過串口調(diào)試或ssh調(diào)試,可以進入開發(fā)板終端。執(zhí)行aplay命令查看聲卡相關的詳細信息,如下所示
    的頭像 發(fā)表于 12-18 13:41 ?2628次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> 音頻輸入

    (EASY EAI)RV1126B PWM使用

    1.PWM簡介1.1開發(fā)板PWM資源1.2查找PWM節(jié)點rv1126b的pwm資源表如下:【PWM1CH0】對應的是pwm1_4ch_0,寄存地址為20700000。【PWM1CH1】對應
    的頭像 發(fā)表于 01-06 10:49 ?8537次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> PWM使用

    (EASY EAI)RV1126B 音頻輸出

    1.聲卡資源介紹EASY-EAI-Nano-TB僅有一塊由RV1126B主控輸出的聲卡。通過串口調(diào)試或ssh調(diào)試,可以進入開發(fā)板終端。執(zhí)行aplay命令查看聲卡相關的詳細信息,如下所示
    的頭像 發(fā)表于 04-01 17:13 ?8583次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> 音頻輸出

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】+初識篇

    Nano-TB是靈眸科技研發(fā)的一款應用于AIoT領域的開發(fā)板,它基于RV1126B處理器,集成了4個Cortex-A53及獨立的NEON協(xié)處理器,它支持4K@30fps的H.
    發(fā)表于 10-25 22:06

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】命令行功能測試-shell腳本進行IO控制-紅綠燈項目

    接上文【EASY EAI Nano-TB(RV1126B)開發(fā)板試用】通過wifi連接,使用ssh登錄EASY EAI Nano-TB(
    發(fā)表于 11-02 18:34

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】命令行功能測試-shell腳本進行IO控制-紅綠燈按鈕項目

    0接上文【EASY EAI Nano-TB(RV1126B)開發(fā)板試用】命令行功能測試-shell腳本進行IO控制-紅綠燈項目-實現(xiàn)開機起動 EASYEAINano-TB(RV1126B
    發(fā)表于 11-03 10:00

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】+1、開箱上電

    ,避免因接觸不良導致顯示或采集異常。 2 硬件解析:強勁AI核心與豐富接口 2.1 核心處理器性能 EASY EAI Nano-TB開發(fā)板的核心基于
    發(fā)表于 11-19 21:39

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】介紹、系統(tǒng)安裝

    ,并介紹了系統(tǒng)鏡像安裝部署的相關流程。 介紹 EASY-EAI-Nano-TB是靈眸科技研發(fā)的一款應用于AIoT領域的AIOT主板。 核心板基于
    發(fā)表于 12-23 18:05

    RV1126&RV1109替換RV1126B-P說明_V1.0

    RV1126&RV1109替換RV1126B-P說明_V1.0目前
    發(fā)表于 08-11 12:02 ?2次下載

    RV1126系列選型指南:從RV1126RV1126B,一文看懂升級差異

    2025年7月,正式發(fā)布新一代AI視覺芯片RV1126B。作為其金牌方案商,EASYEAI靈眸科技同步推出搭載該芯片的AIoT核心板EAI11
    的頭像 發(fā)表于 09-04 10:50 ?5272次閱讀
    <b class='flag-5'>RV1126</b>系列選型指南:從<b class='flag-5'>RV1126</b>到<b class='flag-5'>RV1126B</b>,一文看懂升級差異

    【免費試用】EASY EAI Nano-TB(RV1126B)開發(fā)套件評測

    EASY-EAI-Nano-TB是靈眸科技研發(fā)的一款應用于AIoT領域的AIOT主板。核心板基于RV1126B處理器設計,并引入了新
    的頭像 發(fā)表于 09-23 08:09 ?1307次閱讀
    【免費試用】<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b> Nano-TB(<b class='flag-5'>RV1126B</b>)開發(fā)套件評測

    RV1126B特性概述

    RV1126BRockchip在2025年第二季度全新推出的Arm架構AI視覺芯片,搭載4核Cortex-A53與自研3Tops算力NPU。全面替代上一代的
    的頭像 發(fā)表于 10-09 11:22 ?2262次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RV1126B</b>特性概述

    替代升級實錘!實測RV1126B,CPU性能吊打RV1126

    AI智能芯片迭代提速,推出了全新的Arm架構AI視覺芯片RV1126B,是否替換RV1126,CPU性能是擠牙膏還是大突破。帶著這些核
    的頭像 發(fā)表于 12-11 17:13 ?2615次閱讀
    替代升級實錘!實測<b class='flag-5'>RV1126B</b>,CPU性能吊打<b class='flag-5'>RV1126</b>

    (EASY EAI)RV1126B 人體關鍵點識別

    的特點。本人員檢測算法在數(shù)據(jù)集表現(xiàn)如下所示:基于EASY-EAI-Nano-TB(RV1126B)硬件主板的運行效率:17個人體關鍵點索引定義:2.快速上手2.1開發(fā)
    的頭像 發(fā)表于 01-23 10:13 ?3848次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> 人體關鍵點識別

    (EASY EAI)RV1126B rknn-toolkit-lite2使用方法

    1.rknn-toolkit-lite2介紹RKNN-Toolkit-Lite2是(Rockchip)專為旗下RK系列芯片(如RV1126B、RK3576、RK3588等)打造的
    的頭像 發(fā)表于 04-22 17:38 ?647次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> rknn-toolkit-lite2使用方法
    安塞县| 芦山县| 故城县| 唐河县| 玉龙| 万载县| 南阳市| 黄冈市| 昂仁县| 报价| 津市市| 荥经县| 宜阳县| 内黄县| 眉山市| 花莲县| 贡觉县| 湾仔区| 龙山县| 虎林市| 特克斯县| 寻乌县| 正定县| 兴隆县| 平山县| 木里| 伊宁县| 昆明市| 南溪县| 舞钢市| 汝州市| 宣城市| 平定县| 佛坪县| 神农架林区| 梓潼县| 沁水县| 宁阳县| 正宁县| 常山县| 化德县|