日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OrangePi KunPeng Pro部署AI模型介紹

嵌入式小生 ? 來源:嵌入式小生 ? 2024-11-16 11:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、OrangePi Kunpeng Pro簡介

OrangePi Kunpeng Pro是一款香橙派聯(lián)合華為精心打造的高性能板卡,搭載了鯤鵬處理器,可提供8TOPS INT8計(jì)算能力,板卡設(shè)計(jì)很精致,板載資源也非常多:

?擁有以太網(wǎng)Wi-Fi+藍(lán)牙功能,提供多種可選擇的網(wǎng)絡(luò)接入方式。

? 2個(gè)USB3.0 Host、1個(gè)支持USB3.0的Type-C接口:可接入鼠標(biāo)、鍵盤、USB攝像頭等設(shè)備,方便板卡操作。

? 2個(gè)HDMI接口、1 個(gè) MIPI DSI 2 Lane接口,提供兩種顯示方案。

?引出了40 pin 擴(kuò)展口,可擴(kuò)展UART、I2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下圖所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡擴(kuò)展出的功能很多,能夠滿足很多應(yīng)用場景和行業(yè)的開發(fā)需求,本文將描述使用OrangePi Kunpeng Pro來部署AI大模型,記錄分析模型運(yùn)行期間板卡的狀態(tài)和模型運(yùn)行效果。

二、環(huán)境搭建

(1)首先取出板卡,為板卡接入一個(gè)HDMI顯示屏、一個(gè)無線藍(lán)牙鼠標(biāo)、一個(gè)有線鍵盤,接著接通電源,完成后如下圖所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)隨后板卡將自動啟動運(yùn)行openEuler操作系統(tǒng),接著我們進(jìn)入終端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存儲容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前可用容量很大,可滿足小量級離線模型的存儲。

板卡運(yùn)行openEuler非常流暢,使用體驗(yàn)感非常好。

(4)選擇網(wǎng)絡(luò)接入方式,本文使用Wifi接入。

(5)更改CPU為AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

從上圖中可知目前板卡有3個(gè)AI CPU和1個(gè)control CPU。

接著就進(jìn)行模型運(yùn)行環(huán)境搭建和模型部署了。

三、模型運(yùn)行環(huán)境搭建

(1)下載Ollama用于啟動并運(yùn)行大型語言模型

由于在線下載Ollama速度較慢,故而使用手動方式安裝Ollama,首先從下列地址下載Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后將其通過ssh方式傳輸?shù)桨蹇?。接著將其重名為ollama,便于命令操作,然后將ollama復(fù)制到/usr/bin目錄中并賦予可執(zhí)行權(quán)限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系統(tǒng)服務(wù)

使用以下命令創(chuàng)建ollama服務(wù)描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中編輯如下內(nèi)容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)啟動ollama服務(wù)

使用下述命令啟動ollama服務(wù):

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)啟動ollama

使用下述命令啟動ollama:

sudosystemctlstartollama

(5)查看ollama運(yùn)行狀態(tài)

使用如下命令查看ollama運(yùn)行狀態(tài):

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前ollama啟動成功。

四、模型部署

通過上述第三小節(jié)的步驟后,Ollama模型運(yùn)行環(huán)境就搭建完成,本小節(jié)將部署五個(gè)模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,測試OrangePi Kunpeng Pro運(yùn)行模型的實(shí)際效果。模型細(xì)節(jié)如下表所示:

序號 模型 參數(shù) 描述
1 qwen 1.8b Qwen是阿里云開發(fā)的大型語言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind構(gòu)建的一系列輕量級的開放模型,大小1.7GB
3 phi3 3.8b phi3是微軟開發(fā)的開放AI模型系列,3.8b為Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云開發(fā)的大型語言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平臺公司發(fā)行的基礎(chǔ)語言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:運(yùn)行1.8b的qwen模型,CPU負(fù)載沒有占滿,進(jìn)行問答測試,回答速度較快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:運(yùn)行2b的gemma模型和運(yùn)行1.8b的qwen模型效果相似,CPU負(fù)載同樣沒有占滿,進(jìn)行問答測試,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:運(yùn)行3.8b的phi3模型,進(jìn)行問答測試,回答速度變慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:運(yùn)行4b的qwen模型,進(jìn)行問答測試,回答問題速度明顯變慢:計(jì)算生成答案的速度變慢,打印文字的速度也變慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進(jìn)行問答測試,如下圖所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:運(yùn)行7b的llama2模型,CPU滿負(fù)載了,進(jìn)行問答測試,回答問題速度也明顯變得很慢:計(jì)算生成答案的速度變慢,打印文字的速度也變慢了。

五、實(shí)際效果

上述第四小節(jié)描述了運(yùn)行五個(gè)模型的實(shí)際使用效果,本小節(jié)附上運(yùn)行2b的gemma模型的效果,如下圖所示:

(注:因gif圖對視頻有所處理,以實(shí)際運(yùn)行效果為準(zhǔn)!)

六、總結(jié)

OrangePi Kunpeng Pro板卡是一塊擁有較高計(jì)算性能的板卡,本文使用該板卡部署了五個(gè)模型(以本文所描述模型為參考),對于1.8b和2b量級的模型來說運(yùn)行效果還可以,體驗(yàn)較好;對于3.8b和4b量級的模型來說,體驗(yàn)感有所下降,一是計(jì)算生成答案的過程變長,二是文字輸出存在斷續(xù);對于7b量級的模型,體驗(yàn)感更是降了一個(gè)層次,文字輸出存在明顯的斷續(xù)了。

體驗(yàn)感是一個(gè)非理性的名詞,因人而異,不同的場景和模型,不同的使用者都可能存在不同的體驗(yàn),本文所有內(nèi)容僅供參考和評測!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41305

    瀏覽量

    302686
  • 板卡
    +關(guān)注

    關(guān)注

    3

    文章

    178

    瀏覽量

    17516
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3831

    瀏覽量

    52285

原文標(biāo)題:玩玩OrangePi KunPeng Pro部署AI模型

文章出處:【微信號:嵌入式小生,微信公眾號:嵌入式小生】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI落地培訓(xùn) | 人形檢測模型嵌入式部署全鏈路實(shí)戰(zhàn)

    你是否想系統(tǒng)了解AI落地全鏈路,卻缺少一個(gè)完整的實(shí)戰(zhàn)項(xiàng)目練手?模型部署環(huán)節(jié)繁多,缺乏一套清晰的實(shí)戰(zhàn)路徑?4月18日、4月25日、5月16日RT-Thread將分別在蘇州、成都、南京舉辦“AI
    的頭像 發(fā)表于 04-10 18:41 ?238次閱讀
    <b class='flag-5'>AI</b>落地培訓(xùn) | 人形檢測<b class='flag-5'>模型</b>嵌入式<b class='flag-5'>部署</b>全鏈路實(shí)戰(zhàn)

    AI模型訓(xùn)練與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    你是否想系統(tǒng)了解AI落地全鏈路,但缺少一個(gè)完整的實(shí)戰(zhàn)項(xiàng)目練手?模型部署環(huán)節(jié)繁多,缺乏一套清晰的實(shí)戰(zhàn)路徑?4月18日、4月25日、5月16日RT-Thread將分別在蘇州、成都、南京舉辦“AI
    的頭像 發(fā)表于 04-07 13:08 ?688次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>模型</b>訓(xùn)練與<b class='flag-5'>部署</b>實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    邊緣AI算力臨界點(diǎn):深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價(jià)值

    、內(nèi)存革命:48GB/96GB LPDDR4X 背后的帶寬博弈 很多開發(fā)者容易陷入唯算力論的誤區(qū),但在實(shí)際部署模型時(shí),內(nèi)存容量和帶寬往往是真正的性能瓶頸。OrangePi AI St
    發(fā)表于 03-10 14:19

    OrangePi RV2 深度技術(shù)評測:RISC-V AI融合架構(gòu)的先行者

    OrangePi RV2是香橙派推出的一款基于RISC-V架構(gòu)的AI開發(fā)板,搭載KY X1八核處理器。該板以“CPU 融合AI”為核心理念,內(nèi)置2TOPS算力,并支持雙M.2 NVMe、雙千兆網(wǎng)口等
    發(fā)表于 03-03 20:19

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V2-FAS)

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V2-FAS) 序列 課程名稱 視頻課程時(shí)長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉(zhuǎn)化指南 27分19秒 https
    發(fā)表于 02-11 11:44

    OPi 6Plus全面適配OpenClaw

    的“智能體”。 如此強(qiáng)大的AI,想必你也心動了吧?那么問題來了:我該怎么部署?部署在哪里? 是昂貴的Mac mini,還是復(fù)雜的云端服務(wù)器? 香橙派給出了一個(gè)半小時(shí)速通的簡便方案:在Orang
    發(fā)表于 02-06 20:00

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3)2026版

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3)2026版 序列 課程名稱 視頻課程時(shí)長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉(zhuǎn)化指南 27分19秒 http
    發(fā)表于 01-15 10:31

    RA8P1部署ai模型指南:從訓(xùn)練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量化轉(zhuǎn)換,到工程部署的整個(gè)流程,幫助你快速實(shí)現(xiàn)
    的頭像 發(fā)表于 11-20 18:06 ?2443次閱讀
    RA8P1<b class='flag-5'>部署</b><b class='flag-5'>ai</b><b class='flag-5'>模型</b>指南:從訓(xùn)練<b class='flag-5'>模型</b>到<b class='flag-5'>部署</b>?|?本周六

    使用瑞薩RUHMI工具實(shí)現(xiàn)AI模型部署過程

    AI無處不在。你在部署AI,你的競爭對手也在部署AI,幾乎所有人都在做AI。然而,
    的頭像 發(fā)表于 10-17 10:00 ?2963次閱讀
    使用瑞薩RUHMI工具實(shí)現(xiàn)<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>過程

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】基于MaixCAM-ProAI生成圖像鑒別系統(tǒng)

    能夠有效捕捉AI生成圖像與真實(shí)手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細(xì)微差異。 邊緣端部署:將模型量化、編譯,最終高效運(yùn)行在算力有限的MaixCAM-Pro開發(fā)板上。 實(shí)時(shí)
    發(fā)表于 08-21 13:59

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    企業(yè)部署AI模型怎么做

    當(dāng)下,AI模型已成為驅(qū)動決策自動化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對動輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實(shí)現(xiàn)高效、穩(wěn)
    的頭像 發(fā)表于 06-04 09:26 ?1035次閱讀

    如何使用Docker部署模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境打包成一個(gè)可移植的容器,極大地簡化了
    的頭像 發(fā)表于 05-24 16:39 ?1368次閱讀
    曲阳县| 景泰县| 普兰店市| 台前县| 南开区| 津南区| 澜沧| 长垣县| 普宁市| 永顺县| 商城县| 鹤庆县| 开远市| 修武县| 正蓝旗| 湛江市| 云龙县| 沙坪坝区| 阜新| 治多县| 台湾省| 维西| 安平县| 杭锦后旗| 通渭县| 宁武县| 东莞市| 伊宁市| 云龙县| 阆中市| 民勤县| 松原市| 交口县| 巴彦淖尔市| 雷山县| 乐亭县| 额敏县| 宁城县| 富顺县| 文山县| 新和县|