日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

瑞芯微(EASY EAI)RV1126B 模型部署API說明

廣州靈眸科技有限公司 ? 2026-05-15 14:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 回調(diào)函數(shù)定義

回調(diào)函數(shù)是用于接收模型實時輸出的結(jié)果。在初始化 RKLLM 時回調(diào)函數(shù)會被綁定,在模型推理過程中不斷將結(jié)果輸出至回調(diào)函數(shù)中,并且每次回調(diào)只返回一個 token。

示例代碼如下,該回調(diào)函數(shù)將輸出結(jié)果實時地打印輸出到終端中:

int callback(RKLLMResult* result, void* userdata, LLMCallState state) { if(state == LLM_RUN_NORMAL){ printf("%s", result->text); } if (state == LLM_RUN_FINISH) { printf("finish\n"); } else if (state == LLM_RUN_ERROR){ printf("\run error\n"); } return 0; }

(1)LLMCallState 是一個狀態(tài)標志,其具體定義如下:

v2-fe646cee88ab93c83ebb4afda2dbaccd_720w.webp

用戶在回調(diào)函數(shù)的設(shè)計過程中,可以根據(jù) LLMCallState 的不同狀態(tài)設(shè)置不同的后處理行為。
(2)RKLLMResult 是返回值結(jié)構(gòu)體,其具體定義如下:

v2-037b547d07936e0f3575f317abb61140_720w.webp

(3)RKLLMResultLogits 是返回值結(jié)構(gòu)體,其具體定義如下:

v2-c0cbe2259e75ea7268d325fb04bc8018_720w.webp

用戶在回調(diào)函數(shù)的設(shè)計過程中,可以根據(jù) RKLLMResult 中值設(shè)置不同的后處理行為。

2. 參數(shù)結(jié)構(gòu)體 RKLLMParam 定義


結(jié)構(gòu)體 RKLLMParam 用于描述、定義 RKLLM 的詳細信息,具體的定義如下:

v2-8d76ad153ec8411d3596dd2fe2f28d68_720w.webpv2-1e89648edd1a14c50f17170507d3ab34_720w.webp

在實際的代碼構(gòu)建中,RKLLMParam 需要調(diào)用 rkllm_createDefaultParam()函數(shù)來初始化定義,并根據(jù)需求設(shè)置相應(yīng)的模型參數(shù)。示例代碼如下

RKLLMParam param = rkllm_createDefaultParam(); param.model_path = "model.rkllm"; param.top_k = 1; param.max_new_tokens = 256; param.max_context_len = 512;

3. 輸入結(jié)構(gòu)體定義


為適應(yīng)不同的輸入數(shù)據(jù),定義了 RKLLMInput 輸入結(jié)構(gòu)體,目前可接受文本、圖片和文本、Token id 以及編碼向量四種形式的輸入,具體的定義如下:

v2-cde2db9bc497494d8ea8347e0a449b90_720w.webp

當輸入數(shù)據(jù)是純文本時,使用 input_data 直接輸入;當輸入數(shù)據(jù)是 Token id、編碼向量以及圖 片和文本時,RKLLMInput 需要搭配RKLLMTokenInput, RKLLMEmbedInput 以及RKLLMMultiModelInput 三個輸入結(jié)構(gòu)體使用,具體的介紹如下:
(1)RKLLMTokenInput 是接收 Token id 的輸入結(jié)構(gòu)體,具體的定義如下:

v2-2dc750bd56d677eb32e4ba2c3f82273b_720w.webp

(2)RKLLMEmbedInput 是接收編碼向量的輸入結(jié)構(gòu)體,具體的定義如下:

v2-1546b739a226b6c17dbe930c7f9fb106_720w.webp

(3)RKLLMMultiModelInput 是接收圖片和文本的輸入結(jié)構(gòu)體,具體的定義如下:

v2-f0300e822cd9b1f5c8ea0dc0f64c4a21_720w.webp

RKLLM 支持不同的推理模式,定義了 RKLLMInferParam 結(jié)構(gòu)體,目前可支持在推理過程與預加載的 LoRA 模型聯(lián)合推理,或保存 Prompt Cache 用于后續(xù)推理加速,具體的定義如下:

v2-c92e36f22652a3a52ac9482356f8ee95_720w.webpv2-2f7bc15f0ae170e698dd7d02d8df9fe3_720w.webpv2-458a439886a8e3453c55c53effdc4eea_720w.webp

使用 RKLLMPromptCacheParam 的示例如下:

//初始化并設(shè)置 Prompt Cache 參數(shù)(如果需要使用 prompt cache) RKLLMPromptCacheParam prompt_cache_params; prompt_cache_params.save_prompt_cache = true; // 是否保存 prompt cache prompt_cache_params.prompt_cache_path = "./prompt_cache.bin"; // 若需要保存 prompt cache, 指定 cache 文件路徑 rkllm_infer_params.prompt_cache_params = &prompt_cache_params;

4. 初始化模型


在進行模型的初始化之前,需要提前定義 LLMHandle 句柄,該句柄用于模型的初始化、推理和資源釋放過程。注意,正確的模型推理流程需要統(tǒng)一這 3 個流程中的 LLMHandle 句柄對象。在模型推理前,用戶需要通過 rkllm_init()函數(shù)完成模型的初始化,具體函數(shù)的定義如下:

v2-8fe4bb7daacd725ae84563caa16503d7_720w.webp

示例代碼如下:

LLMHandle llmHandle = nullptr; rkllm_init(&llmHandle, ?m, callback);

5. 模型推理


用戶在完成 RKLLM 模型的初始化流程后,即可通過 rkllm_run()函數(shù)進行模型推理,并可以通過初始化時預先定義的回調(diào)函數(shù)對實時推理結(jié)果進行處理;rkllm_run()的具體函數(shù)定義如下:

v2-9580bf8938577e489befa3678d9b353b_720w.webp

6. 模型中斷


在進行模型推理時,用戶可以調(diào)用 rkllm_abort()函數(shù)中斷推理進程,具體的函數(shù)定義如下:

v2-a4ef0c7a44d00bf806aac2efd6eed23d_720w.webp

示例代碼如下:

// 其中 llmHandle 為模型初始化時傳入的句柄 rkllm_abort(llmHandle);

7. 釋放模型資源


在完成全部的模型推理調(diào)用后,用戶需要調(diào)用 rkllm_destroy()函數(shù)進行 RKLLM 模型的銷毀,并釋放所申請的 CPU、NPU 計算資源,以供其他進程、模型的調(diào)用。具體的函數(shù)定義如下:

v2-0c6174e1718537a2b6657a1cac488ab2_720w.webp

示例代碼如下:

// 其中 llmHandle 為模型初始化時傳入的句柄 rkllm_destroy(llmHandle);

8. LoRA 模型加載


RKLLM 支持在推理基礎(chǔ)模型的同時推理 LoRA 模型,可以在調(diào)用 rkllm_run接口前通過rkllm_load_lora接口加載LoRA模型。RKLLM支持加載多個LoRA 模 型,每調(diào)用一次rkllm_load_lora 可加載一個 LoRA 模型。具體的函數(shù)定義如下:

v2-6a93b6ae60ac7060153e4b412ecd26db_720w.webpv2-11c33a5545eb6562798cbb6d817f5cf8_720w.webp

加載 LoRA 的示例代碼如下:

RKLLMLoraAdapter lora_adapter; memset(&lora_adapter, 0, sizeof(RKLLMLoraAdapter)); lora_adapter.lora_adapter_path = "lora.rkllm"; lora_adapter.lora_adapter_name = "lora_name"; lora_adapter.scale = 1.0; ret = rkllm_load_lora(llmHandle, &lora_adapter); if (ret != 0) { printf("\nload lora failed\n"); }

9. Prompt Cache 管理


在模型推理過程中,Prefill 階段通常消耗大量的計算資源和時間,特別是在 Prompt 很長的情況下。為了加速這一過程,RKLLM 支持文件加載 Prompt Cache,通過復用緩存中的內(nèi)容,可以顯著減少 Prefill 階段的耗時,從而提升整體推理效率。在調(diào)用 rkllm_run 接口進行推理之前,請確保正確配置 prompt_cache_params 參數(shù)。這一步驟允許模型在推理結(jié)束后生成對應(yīng)的 Prompt Cache 文件。當首次運行推理時,系統(tǒng)會自動生成一個 Prompt Cache 文件。該文件包含了 Prefill 階段所需的中間結(jié)果,以便后續(xù)使用。在后續(xù)的推理任務(wù)中,可以通過調(diào)用 rkllm_load_prompt_cache 接口加載之前生成的 Prompt Cache 文件。
具體的函數(shù)定義如下:

v2-4a2b1031dd55574db7b7c315575b4daa_720w.webpv2-f2c6502d12e83ffad1255bb51bc2e7b0_720w.webp

注意:
RKLLM 會從頭開始檢測輸入與 prompt_cache 中相同的部分,假設(shè)您的輸入格式固定為PROMPT_PREFIX + text + PROMPT_POSTFIX,您可以僅對 PROMPT_PREFIX 部分生成Prompt Cache,加載后在后續(xù)的推理中即可復用這部分結(jié)果。
RKLLM 支持生成多個 Prompt Cache 文件。在需要使用不同的 Prompt Cache 時,只需加載對應(yīng)的文件即可。當需要切換到另一個 Prompt Cache 文件或不再需要使用加載的 PromptCache 時,請顯式調(diào)用 rkllm_release_prompt_cache 接口進行釋放。
加載 Prompt Cache 的示例代碼如下:

// 初始化并設(shè)置 Prompt Cache 參數(shù),并調(diào)用 run 接口生成 prompt cache 文件 RKLLMPromptCacheParam prompt_cache_params; // 是否保存 prompt cache prompt_cache_params.save_prompt_cache = true; // 若需要保存 prompt cache, 指定 cache 文件絕對路徑 prompt_cache_params.prompt_cache_path = "/data/prompt_cache.bin"; rkllm_infer_params.prompt_cache_params = &prompt_cache_params; rkllm_infer_params.mode = RKLLM_INFER_GENERATE; rkllm_input.input_type = RKLLM_INPUT_PROMPT; rkllm_input.prompt_input = (char *)prompt.c_str(); rkllm_run(llmHandle, &rkllm_input, &rkllm_infer_params, NULL); // 加載 prompt cache 文件,減少 prefill 耗時 rkllm_load_prompt_cache(llmHandle, "./prompt_cache.bin"); if (ret != 0) { printf("\nload Prompt Cache failed\n"); } rkllm_run(llmHandle, &rkllm_input, &rkllm_infer_params, NULL);

10. KV Cache 管理


RKLLM 支持手動清除 KV 緩存,可用于單輪和多輪對話。在調(diào)用清除緩存功能時,如果keep_system_prompt 設(shè)置為 1,則會保留系統(tǒng)提示詞(如果存在);否則,將清空整個緩存。函數(shù)定義如下:

v2-c4663fcfbd2599f6a03887b4f1cabfce_720w.webp

11. Chat Template 設(shè)置


當用戶使用文本輸入時,RKLLM 會對默認文本進行前處理,前處理時會根據(jù) Hugging Face模型 tokenizer_config.json 文件中的 chat_template 字段,自動解析并應(yīng)用提示詞模板。如需自定義,可使用以下函數(shù)進行重置,其中,system_prompt 作為系統(tǒng)提示詞,用于指導模型行為,prompt_prefix 為用戶輸入前綴,prompt_postfix 為用戶輸入后綴,具體的函數(shù)定義如下。當用戶重置模板后,enable_thinking 選項將失效,用戶需要在自定義的 prompt 中進行配置。

v2-44880c1ec3fb3a7753a37c77c79a965b_720w.webp

12. Function Calling 設(shè)置


RKLLM 支持通過 Function Calling 實現(xiàn)模型與外部系統(tǒng)的結(jié)構(gòu)化交互,擴展大模型能力邊界,提升模型在知識補充、數(shù)據(jù)精確獲取等任務(wù)中的表現(xiàn)。當啟用 Function Calling 模式后,應(yīng)用程序可將函數(shù)定義傳入模型,模型根據(jù)用戶提問判斷是否需要調(diào)用函數(shù),并根據(jù)設(shè)定的格式輸出調(diào)用請求。應(yīng)用程序根據(jù)模型意圖調(diào)用相應(yīng)函數(shù)并將結(jié)果返回,模型最終基于結(jié)果繼續(xù)對話。
RKLLM 支持的 Function Calling 設(shè)置函數(shù)定義如下:

v2-73313bfb78be93176540cebf00096e2b_720w.webp

示例代碼如下: 首先配置 tools std::string system_prompt = "You are Qwen, created by Alibaba Cloud. You are a helpful assistant.\n\nCurrent Date: 2024-09-30"; std::string tools = R"([ { "type": "function", "function": { "name": "get_current_temperature", "description": "Get current temperature at a location.", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "The location to get the temperature for, in the format "City, State, Country"." }, "unit": { "type": "string", "enum": ["celsius", "fahrenheit"], "description": "The unit to return the temperature in. Defaults to "celsius"." } }, "required": ["location"] } } }, { "type": "function", "function": { "name": "get_temperature_date", "description": "Get temperature at a location and date.", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "The location to get the temperature for, in the format "City, State, Country"." }, "date": { "type": "string", "description": "The date to get the temperature for, in the format "Year-Month-Day"." }, "unit": { "type": "string", "enum": ["celsius", "fahrenheit"], "description": "The unit to return the temperature in. Defaults to "celsius"." } }, "required": ["location", "date"] } } } ])"; rkllm_set_function_tools(llmHandle, system_prompt.c_str(), tools.c_str(), "tool_response");

接下來,在推理過程中配合 rkllm_run 實現(xiàn)調(diào)用鏈:

// 用戶提問 RKLLMInferParam rkllm_infer_params; memset(&rkllm_infer_params, 0, sizeof(RKLLMInferParam)); rkllm_infer_params.mode = RKLLM_INFER_GENERATE; rkllm_infer_params.keep_history = 0; RKLLMInput rkllm_input; rkllm_input.input_type = RKLLM_INPUT_PROMPT; rkllm_input.enable_thinking = false; rkllm_input.role = "user"; rkllm_input.prompt_input = "What's the temperature in San Francisco now? How about tomorrow?"; rkllm_run(llmHandle, &rkllm_input, &rkllm_infer_params, NULL); // 第一次調(diào)用 rkllm_run 會返回需要調(diào)用的工具函數(shù)名 {"name": "get_current_temperature", "arguments": {"location": "San Francisco"}} {"name": "get_temperature_date", "arguments": {"location": "San Francisco", "date": "2024-10-01"}} // 將工具調(diào)用結(jié)果返回給大模型,role 必須配置為 tool rkllm_input.role = "tool"; rkllm_input.prompt_input = R"([ { "temperature": 26.1, "location": "San Francisco", "unit": "celsius" }, { "temperature": 25.9, "location": "San Francisco", "date": "2024-09-30", "unit": "celsius" } ])"; rkllm_run(llmHandle, &rkllm_input, &rkllm_infer_params, NULL); // 最終結(jié)果 "The current temperature in San Francisco is 26.1°C. Tomorrow, the temperature is expected to be 25.9°C."

13. Cross attention 設(shè)置


RKLLM 支持 cross attention 推理,用戶可以通過如下函數(shù)將 encoder 生成的 K/V 緩存、掩碼以及位置信息輸入給解碼器用于交叉注意力計算。cross attention 只支持自定義模型推理,模型的轉(zhuǎn)換方式詳見 3.1.6 章節(jié)。

v2-d76e3c88d76de55015c80992a9b3cbce_720w.webpv2-39a45e2d248877fdbb260b6e4f07245c_720w.webp

14. 多 batch 并行推理


RKLLM 支持同時推理多個 batch(建議 batch 數(shù)量不超過 8)。
使用兩個 batch 進行推理的示例代碼如下,主要為:

  • 模型初始化時需要將 param.extend_param.n_batch 參數(shù)設(shè)置為 2;
  • 使用多 batch 進行推理時,輸入 RLLLMInput 和 callback 中的 RKLLMResult 均為n_batch 大小的數(shù)組;
  • callback 中所有 batch 推理結(jié)果同步返回,當某個 batch 返回的 token id 為負數(shù)時,表示該 batch 推理結(jié)束,所有 batch 都推理結(jié)束時才會終止推理;
  • 在 callback 中處理返回的文本時,必須先判斷返回的 text 是否為空指針,再進行賦值操作。

#include #include #include #include "rkllm.h" #include #include #include #include using namespace std; LLMHandle llmHandle = nullptr; std::string output_texts[10]; int callback(RKLLMResult *result, void *userdata, LLMCallState state) { if (state == RKLLM_RUN_FINISH) { printf("\nrkllm run finish\n"); } else if (state == RKLLM_RUN_ERROR) { printf("\nrkllm run error\n"); } else if (state == RKLLM_RUN_NORMAL) { RKLLMResult batch1 = result[0]; RKLLMResult batch2 = result[1]; if (batch1.text) { output_texts[0] += batch1.text; printf("batch 0 %s\n", output_texts[0].c_str()); } if (batch2.text) { output_texts[1] += batch2.text;; printf("batch 1 %s\n", output_texts[1].c_str()); } } return 0; } int main(int argc, char **argv) { if (argc < 4) { std::cerr << "Usage: " << argv[0] << " model_path max_new_tokens max_context_len\n"; return 1; } RKLLMParam param = rkllm_createDefaultParam(); param.model_path = argv[1]; param.top_k = 1; param.top_p = 0.95; param.temperature = 0.8; param.repeat_penalty = 1.1; param.frequency_penalty = 0.0; param.presence_penalty = 0.0; param.max_new_tokens = std::atoi(argv[2]); param.max_context_len = std::atoi(argv[3]); param.skip_special_token = true; param.extend_param.base_domain_id = 0; param.extend_param.embed_flash = 1; param.extend_param.n_batch = 2; int ret = rkllm_init(&llmHandle, ?m, callback); if (ret == 0){ printf("rkllm init success\n"); } else { printf("rkllm init failed\n"); exit_handler(-1); } RKLLMInput rkllm_input[2]; memset(&rkllm_input, 0, sizeof(RKLLMInput)*2); RKLLMInferParam rkllm_infer_params; memset(&rkllm_infer_params, 0, sizeof(RKLLMInferParam)); // 將所有內(nèi)容初始化為 0 output_texts[0].clear(); output_texts[1].clear(); rkllm_infer_params.mode = RKLLM_INFER_GENERATE; rkllm_infer_params.keep_history = 0; rkllm_input[0].input_type = RKLLM_INPUT_PROMPT; rkllm_input[0].role = "user"; rkllm_input[0].enable_thinking = false; rkllm_input[0].prompt_input = "上聯(lián): 江邊慣看千帆過"; rkllm_input[1].input_type = RKLLM_INPUT_PROMPT; rkllm_input[1].role = "user"; rkllm_input[1].enable_thinking = false; rkllm_input[1].prompt_input = "以詠梅為題目,幫我寫一首古詩,要求包含梅花、白雪等元素。"; printf("robot: "); rkllm_run(llmHandle, &rkllm_input[0], &rkllm_infer_params, NULL); rkllm_destroy(llmHandle); return 0; }

15. 模型暫停推理


RKLLM 支持在單輪模式中暫停推理,具體為在 callback 中 return 1。暫停推理時,kv cache不會被清除,用戶可以繼續(xù)更改輸入后,調(diào)用 rkllm_run 恢復推理。

16. 模型性能數(shù)據(jù)回調(diào)


RKLLM 支持在推理結(jié)束時返回單次推理性能數(shù)據(jù),包括 prefill 和 decode 推理總耗時、token數(shù)量和內(nèi)存占用,返回的結(jié)構(gòu)體定義如下:

v2-bbf4576bf56892da9ae765cf9a50bf97_720w.webp
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50453

    瀏覽量

    267482
  • 開發(fā)板
    +關(guān)注

    關(guān)注

    26

    文章

    6476

    瀏覽量

    121275
  • 瑞芯微
    +關(guān)注

    關(guān)注

    27

    文章

    888

    瀏覽量

    54712
  • EASY-EAI靈眸科技
    +關(guān)注

    關(guān)注

    4

    文章

    126

    瀏覽量

    3747
  • RV1126B
    +關(guān)注

    關(guān)注

    0

    文章

    116

    瀏覽量

    265
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    (EASY EAI)RV1126B 音頻輸入

    1.聲卡資源介紹EASY-EAI-Nano-TB僅有一塊由RV1126B主控輸出的聲卡。通過串口調(diào)試或ssh調(diào)試,可以進入開發(fā)板終端。執(zhí)行aplay命令查看聲卡相關(guān)的詳細信息,如下所示
    的頭像 發(fā)表于 12-18 13:41 ?2657次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> 音頻輸入

    (EASY EAI)RV1126B PWM使用

    1.PWM簡介1.1開發(fā)板PWM資源1.2查找PWM節(jié)點rv1126b的pwm資源表如下:【PWM1CH0】對應(yīng)的是pwm1_4ch_0,寄存地址為20700000?!綪WM1CH1】對應(yīng)
    的頭像 發(fā)表于 01-06 10:49 ?8713次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> PWM使用

    (EASY EAI)RV1126B 音頻輸出

    1.聲卡資源介紹EASY-EAI-Nano-TB僅有一塊由RV1126B主控輸出的聲卡。通過串口調(diào)試或ssh調(diào)試,可以進入開發(fā)板終端。執(zhí)行aplay命令查看聲卡相關(guān)的詳細信息,如下所示
    的頭像 發(fā)表于 04-01 17:13 ?8647次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> 音頻輸出

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】+初識篇

    Nano-TB是靈眸科技研發(fā)的一款應(yīng)用于AIoT領(lǐng)域的開發(fā)板,它基于RV1126B處理器,集成了4個Cortex-A53及獨立的NEON協(xié)處理器,它支持4K@30fps的H.
    發(fā)表于 10-25 22:06

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】+1、開箱上電

    ,避免因接觸不良導致顯示或采集異常。 2 硬件解析:強勁AI核心與豐富接口 2.1 核心處理器性能 EASY EAI Nano-TB開發(fā)板的核心基于
    發(fā)表于 11-19 21:39

    EASY EAI Nano-TB(RV1126B)開發(fā)板試用】介紹、系統(tǒng)安裝

    ,并介紹了系統(tǒng)鏡像安裝部署的相關(guān)流程。 介紹 EASY-EAI-Nano-TB是靈眸科技研發(fā)的一款應(yīng)用于AIoT領(lǐng)域的AIOT主板。 核心板基于
    發(fā)表于 12-23 18:05

    RV1126系列選型指南:從RV1126RV1126B,一文看懂升級差異

    2025年7月,正式發(fā)布新一代AI視覺芯片RV1126B。作為其金牌方案商,EASYEAI靈眸科技同步推出搭載該芯片的AIoT核心板EAI11
    的頭像 發(fā)表于 09-04 10:50 ?5361次閱讀
    <b class='flag-5'>RV1126</b>系列選型指南:從<b class='flag-5'>RV1126</b>到<b class='flag-5'>RV1126B</b>,一文看懂升級差異

    【免費試用】EASY EAI Nano-TB(RV1126B)開發(fā)套件評測

    EASY-EAI-Nano-TB是靈眸科技研發(fā)的一款應(yīng)用于AIoT領(lǐng)域的AIOT主板。核心板基于RV1126B處理器設(shè)計,并引入了新
    的頭像 發(fā)表于 09-23 08:09 ?1350次閱讀
    【免費試用】<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b> Nano-TB(<b class='flag-5'>RV1126B</b>)開發(fā)套件評測

    RV1126B特性概述

    RV1126BRockchip在2025年第二季度全新推出的Arm架構(gòu)AI視覺芯片,搭載4核Cortex-A53與自研3Tops算力NPU。全面替代上一代的
    的頭像 發(fā)表于 10-09 11:22 ?2332次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RV1126B</b>特性概述

    替代升級實錘!實測RV1126B,CPU性能吊打RV1126

    AI智能芯片迭代提速,推出了全新的Arm架構(gòu)AI視覺芯片RV1126B,是否替換RV1126,CPU性能是擠牙膏還是大突破。帶著這些核
    的頭像 發(fā)表于 12-11 17:13 ?2679次閱讀
    替代升級實錘!實測<b class='flag-5'>RV1126B</b>,CPU性能吊打<b class='flag-5'>RV1126</b>

    (EASY EAI)RV1126B 人體關(guān)鍵點識別

    的特點。本人員檢測算法在數(shù)據(jù)集表現(xiàn)如下所示:基于EASY-EAI-Nano-TB(RV1126B)硬件主板的運行效率:17個人體關(guān)鍵點索引定義:2.快速上手2.1開發(fā)
    的頭像 發(fā)表于 01-23 10:13 ?4009次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> 人體關(guān)鍵點識別

    (EASY EAI)RV1126B rknn-toolkit-lite2使用方法

    1.rknn-toolkit-lite2介紹RKNN-Toolkit-Lite2是(Rockchip)專為旗下RK系列芯片(如RV1126B、RK3576、RK3588等)打造的
    的頭像 發(fā)表于 04-22 17:38 ?842次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> rknn-toolkit-lite2使用方法

    (EASY EAI)RV1126B 模型部署API說明

    1.基礎(chǔ)數(shù)據(jù)結(jié)構(gòu)定義1.1rknn_sdk_version結(jié)構(gòu)體rknn_sdk_version用來表示RKNNSDK的版本信息,結(jié)構(gòu)體的定義如下:1.2rknn_input_output_num結(jié)構(gòu)體rknn_input_output_num表示輸入輸出tensor個數(shù),其結(jié)構(gòu)體成員變量如下表所示:1.3rknn_input_range結(jié)構(gòu)體rknn_input_range表示一個輸入的支持形狀
    的頭像 發(fā)表于 05-07 17:49 ?1299次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> <b class='flag-5'>模型</b><b class='flag-5'>部署</b><b class='flag-5'>API</b><b class='flag-5'>說明</b>

    (EASY EAI)RV1126B yolov11訓練部署教程

    、使用最廣泛的YOLO變體。YOLO11將延續(xù)YOLO系列的傳奇。本教程針對目標檢測算法yolo11的訓練和部署EASY-EAI-Nano-TB(RV1126B)進行
    的頭像 發(fā)表于 05-09 16:59 ?666次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b>(<b class='flag-5'>EASY</b> <b class='flag-5'>EAI</b>)<b class='flag-5'>RV1126B</b> yolov11訓練<b class='flag-5'>部署</b>教程

    RV1126B 方案特性

    RV1126B是面向邊緣視覺場景的專用處理芯片,憑借低功耗、內(nèi)置AI-ISP、雙路MIPI-CSI接口以及端側(cè)AI算力,可支撐常規(guī)監(jiān)控、雙光譜、多目視覺等多類相機產(chǎn)品開發(fā),配合定
    的頭像 發(fā)表于 05-11 14:27 ?644次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RV1126B</b> 方案特性
    游戏| 繁昌县| 荣成市| 花莲市| 本溪| 云和县| 岳阳县| 闵行区| 普兰县| 绥芬河市| 霍山县| 康乐县| 塔河县| 大余县| 文山县| 舟曲县| 河北省| 资讯 | 德庆县| 抚宁县| 格尔木市| 巴林右旗| 赞皇县| 永平县| 麻栗坡县| 嘉鱼县| 滁州市| 子洲县| 灵宝市| 红桥区| 永兴县| 闻喜县| 普宁市| 贡山| 全椒县| 白城市| 满城县| 于田县| 类乌齐县| 来凤县| 太仆寺旗|