日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

簡單三步在Windows上調用低功耗NPU部署AI模型

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2024-02-22 17:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

相信很多小伙伴都已經(jīng)知道,在最新一代的英特爾 酷睿 Ultra 移動端處理中已經(jīng)集成了被稱為 NPU 的神經(jīng)網(wǎng)絡加速處理器,以提供低功耗的 AI 算力,特別適合于 PC 端需要長時間穩(wěn)定運行的 AI 輔助功能,例如會議聊天軟件中的自動摳像,或是畫面超分辨率等應用。而 OpenVINO 工具套件也在第一時間對 NPU 進行了適配,接下來就讓我們一起看一下如何在英特爾 酷睿 Ultra 處理器上搭建基礎環(huán)境,并調用 NPU 進行模型推理任務。

NPU 驅動安裝

首先我們需要確保是否安裝了最新版的 NPU 驅動,可以通過 Windows 任務管理調出當前 NPU 驅動版本信息。

7f01b5f0-d162-11ee-a297-92fbcf53809c.jpg

圖:NPU 在 Windows 任務管理器中顯示驅動版本

查詢當前最新的 NPU 驅動版本:

https://www.intel.com/content/www/us/en/download/794734/intel-npu-driver-windows.html

7f1ff6a0-d162-11ee-a297-92fbcf53809c.png

圖:NPU 驅動下載頁面

如果想更新或是重裝 NPU 驅動,可以參考以下指引下載并安裝驅動:

https://docs.openvino.ai/2023.3/openvino_docs_install_guides_configurations_for_intel_npu.html

OpenVINO 的下載和安裝

由于目前 NPU Plugin 還沒有被集成在 OpenVINO 的 PyPI 安裝包中,因此我們需要通過下載 OpenVINO runtime 壓縮包的方式進行安裝。

7f35a298-d162-11ee-a297-92fbcf53809c.png

圖:OpenVINO 下載頁面

整個安裝過程非常簡單,只需將壓縮包解壓到在本地路徑下即可。具體方法可以參考上圖標紅處的安裝說明。

7f5bbdd4-d162-11ee-a297-92fbcf53809c.png

圖:將壓縮包解壓至本地路徑

Python 環(huán)境配置

通過執(zhí)行壓縮包中的 setupvars.bat 環(huán)境配置腳本,我們便可以直接在 Python 環(huán)境下加載 OpenVINO runtime 和 NPU Plugin 環(huán)境。同時利用 OpenVINO 的 Python API 指令,我們可以快速驗證 NPU 是否可以被正常調用。

7fbe5232-d162-11ee-a297-92fbcf53809c.jpg

圖:Python 環(huán)境中驗證 NPU 調用

C++ 環(huán)境配置

不同于 Python,Windows 上的 C++ 應用需要依賴于 CMake 或者是 Visual Studio 的環(huán)境下調試,因此這里我們需要簡單配置下 OpenVINO 庫的路徑。下面以 Visual Studio 中新建項目的屬性配置頁面為例。

7fd6349c-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 頭文件路徑

7ff36080-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 動態(tài)庫路徑

800aead4-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 及 frontednd 靜態(tài)庫路徑

80332d0a-d162-11ee-a297-92fbcf53809c.png

圖:在 Windows 本地添加 OpenVINO 環(huán)境變量路徑

當完成 Visual Studio 項目屬性配置后,我們可以通過調試以下示例代碼,測試 NPU 是否可以被檢測及調用。

#include 
#include 


int main(int argc, char* argv[]) {


  // -------- Get OpenVINO runtime version --------
  std::cout << ov::get_openvino_version() << std::endl;


 ? ?// -------- Step 1. Initialize OpenVINO Runtime Core --------
 ? ?ov::Core core;


 ? ?// -------- Step 2. Get list of available devices --------
 ? ?std::vector availableDevices = core.get_available_devices();


  // -------- Step 3. Query and print supported metrics and config keys --------
  std::cout << "available devices: " << std::endl;
 ? ?for (auto&& device : availableDevices) {
 ? ? ? ?std::cout << device << std::endl;
 ? ?}
}

805d6408-d162-11ee-a297-92fbcf53809c.png

圖:VS 環(huán)境中驗證 NPU 調用

測試效果

當完成 NPU 安裝后,我們可以通過 OpenVINO notebooks 中提供的示例,簡單測試下 NPU 的性能。這個示例會通過以下 Python 代碼來將模型部署在 NPU 上。

compiled_model = core.compile_model("model.xml", "NPU")

8077ab42-d162-11ee-a297-92fbcf53809c.png

圖:實時人體關鍵點演示效果

可以看到 NPU 在運行實時人體關鍵點檢測模型時的效果和速度還是非常不錯的,達到了 90FPS 的吞吐量,同時推理任務幾乎也沒有占用 CPU 額外的資源,真正做到了在提供高算力的同時,減輕 CPU 和 GPU 的任務負載。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4844

    瀏覽量

    108203
  • python
    +關注

    關注

    58

    文章

    4889

    瀏覽量

    90328
  • 加速處理器
    +關注

    關注

    0

    文章

    8

    瀏覽量

    6556
  • NPU
    NPU
    +關注

    關注

    2

    文章

    387

    瀏覽量

    21371

原文標題:簡單三步在 Windows 上調用低功耗 NPU 部署 AI 模型 | 開發(fā)者實戰(zhàn)

文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI模型微調企業(yè)項目實戰(zhàn)課

    實戰(zhàn)通常遵循嚴密的“三步走”戰(zhàn)略: 第一:數(shù)據(jù)煉金——高質量SFT數(shù)據(jù)的構建 微調領域,“垃圾進,垃圾出”是鐵律。實戰(zhàn)課的核心首先是教企業(yè)如何“洗數(shù)據(jù)”。這包括從內部ERP、OA系統(tǒng)、知識圖譜中提
    發(fā)表于 04-16 18:48

    NPU 上運行了 eIQ TensorFlow Lite 示例模型報錯

    我們已經(jīng) NPU 上運行了 eIQ TensorFlow Lite 示例模型,但它們失敗并出現(xiàn)以下錯誤: 信息:加載的模型 mobilenet_v1_1.0_224_quant.t
    發(fā)表于 03-18 06:52

    【瑞薩AI挑戰(zhàn)賽】手寫數(shù)字識別模型RA8P1 Titan Board上的部署

    手寫數(shù)字識別模型RA8P1 Titan Board上的部署 手寫數(shù)字識別是計算機視覺領域的經(jīng)典入門任務,而瑞薩RA8P1 Titan Board開發(fā)板憑借其搭載的雙內核架構與專用NPU
    發(fā)表于 03-15 20:42

    邊緣AI算力臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值

    。openEuler作為華為主導的服務器操作系統(tǒng),ARM生態(tài)、內核優(yōu)化和實時性方面有深厚積累,這對于將AI Station作為服務器或工業(yè)控制器使用至關重要。 真實的開發(fā)者案例:ACT模型
    發(fā)表于 03-10 14:19

    瑞芯微RKNPU開發(fā)全指南:從環(huán)境搭建到性能優(yōu)化,一文搞定邊緣AI部署

    邊緣 AI 領域,瑞芯微(Rockchip)的 RKNPU 憑借高性能、低功耗的特性,成為很多嵌入式開發(fā)者的首選。無論是 RK3588 的 3 核 NPU(算力達 6TOPS),還是
    的頭像 發(fā)表于 02-06 16:35 ?3932次閱讀
    瑞芯微RKNPU開發(fā)全指南:從環(huán)境搭建到性能優(yōu)化,一文搞定邊緣<b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    使用NORDIC AI的好處

    Nordic 的 Edge AI 主要有以下幾個好處(基于官方資料總結): 極低功耗、延長電池壽命 本地運行 AI,減少無線傳輸次數(shù),而無線收發(fā)是最耗電的部分。設備只需上傳“結果/
    發(fā)表于 01-31 23:16

    【CIE全國RISC-V創(chuàng)新應用大賽】基于 K1 AI CPU 的大模型部署落地

    /Qwen2.5-Coder-14B-Instruct-GGUF Qwen2.5-Coder-14B-Instruct-Q2_K.gguf --local_dir . 第三步:編寫測試腳本
    發(fā)表于 11-27 14:43

    如何利用NPU模型壓縮技術優(yōu)化邊緣AI

    隨著人工智能模型從設計階段走向實際部署,工程師面臨著雙重挑戰(zhàn):計算能力和內存受限的嵌入式設備上實現(xiàn)實時性能。神經(jīng)處理單元(NPU)作為強大的硬件解決方案,擅長處理
    的頭像 發(fā)表于 11-07 15:26 ?1446次閱讀
    如何利用<b class='flag-5'>NPU</b>與<b class='flag-5'>模型</b>壓縮技術優(yōu)化邊緣<b class='flag-5'>AI</b>

    使用瑞薩RUHMI工具實現(xiàn)AI模型部署過程

    AI無處不在。你部署AI,你的競爭對手也部署AI
    的頭像 發(fā)表于 10-17 10:00 ?2966次閱讀
    使用瑞薩RUHMI工具實現(xiàn)<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>過程

    工業(yè)視覺網(wǎng)關:RK3576賦能多路檢測與邊緣AI

    。· 實時性與穩(wěn)定性:漏檢/誤檢帶來返工與投訴風險,系統(tǒng)需長時穩(wěn)定、低時延?!?質量追溯與合規(guī):檢測結果需與工單/MES/條碼綁定,形成可回溯的證據(jù)鏈?!?成本與部署:希望以更低功耗/體積/成本替代傳統(tǒng)
    發(fā)表于 10-16 17:56

    ALINX VD100低功耗端側大模型部署方案,運行3B模型功耗僅5W?!

    模型能運行≠用戶體驗好。 IDC 預測,到 2026 年,全球超過 50% 的企業(yè) AI 工作負載將部署邊緣設備上。
    的頭像 發(fā)表于 09-03 14:58 ?898次閱讀
    ALINX VD100<b class='flag-5'>低功耗</b>端側大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>方案,運行3B<b class='flag-5'>模型</b><b class='flag-5'>功耗</b>僅5W?!

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    關鍵詞:瑞芯微 RK3576、NPU(神經(jīng)網(wǎng)絡處理器)、端側小語言模型(SLM)、多模態(tài) LLM、邊緣 AI 部署、開發(fā)板、RKLLM隨著大語言
    發(fā)表于 08-29 18:08

    AI的未來,屬于那些既能寫代碼,又能焊電路的“雙棲人才”

    AI模型MCU/NPU部署的文章互動量增長超300%;嵌入式AI相關問答數(shù)量翻倍;PCB+
    發(fā)表于 07-30 16:15

    ai_cube訓練模型最后部署失敗是什么原因?

    ai_cube訓練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    無法NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58
    迁安市| 福鼎市| 白河县| 太湖县| 卢湾区| 沙洋县| 临沂市| 仲巴县| 信阳市| 玛纳斯县| 得荣县| 柘荣县| 安顺市| 额尔古纳市| 旺苍县| 抚松县| 松滋市| 万盛区| 望奎县| 平塘县| 乐都县| 高雄市| 电白县| 和政县| 靖远县| 武宁县| 梧州市| 临清市| 阜宁县| 信宜市| 全南县| 陈巴尔虎旗| 余干县| 伊川县| 吉安县| 精河县| 四平市| 宁阳县| 晋宁县| 固阳县| 南靖县|