日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

雙卡銳炫來助陣,本地部署DeepSeek也能性價(jià)比

looger123 ? 來源:looger123 ? 作者:looger123 ? 2025-03-19 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對(duì)于“AI模型是顯存殺手”這事,我想就算那些沒有本地部署過,甚至沒有特別關(guān)注過我們顯卡和筆記本評(píng)測(cè)中的AI體驗(yàn)部分的玩家應(yīng)該也知道這個(gè)事實(shí)——畢竟從年初到現(xiàn)在,DeepSeek已經(jīng)足夠火爆,以至于公園下棋老大爺都能給您編排出一段AI界的三國(guó)演義出來.....回到本文的主題,今天我們還是聊聊本地部署DeepSeek模型這事。

wKgZPGfaIkqAZxvhAApLUaiA7kg634.png

首先還是要說明的是,我們部署的是DeepSeek-R1蒸餾模型,而不是DeepSeek-R1 671B。老實(shí)說,671B的滿血版確實(shí)超出普通玩家的范疇了,和個(gè)人范疇內(nèi)的“性價(jià)比”更是毫不相關(guān)。不過,蒸餾模型還是能做不少事情的,比如用于翻譯服務(wù),而且本地部署有很多好處,除了老生常談的隱私問題外,還能避免“服務(wù)器繁忙,請(qǐng)稍后再試”這種情況發(fā)生。

然而就算是蒸餾模型,對(duì)于顯卡的要求也是相當(dāng)高。這里不說DeepSeek-R1蒸餾模型中最大的DeepSeek-R1-Distill-Llama-70B了,就算是排第二的DeepSeek-R1-Distill-Qwen-32B,要想單卡運(yùn)行的話您至少需要一張RTX 5090或者RTX 4090??紤]到它倆現(xiàn)時(shí)的價(jià)格,這仍然算不上是很“性價(jià)比”。那么,還有什么便宜大碗的方案呢?

那當(dāng)然還是有的,而且可能比買二手顯卡這事還要穩(wěn)——兩張英特爾銳炫A770 16GB便是個(gè)值得嘗試的方案。別被雙卡這個(gè)概念嚇到,以顯存容量去評(píng)判的話,兩張銳炫A770加一塊也就3600元,可是要比RTX 4070還要實(shí)惠。唯一有要求的可能是您的主板和電源,前者是PCIe速度,后者自然是兩張A770的功耗了。

wKgZPGfaIl2AKZu-AArMGn3XgyM147.png

“大顯存支持:16GB GDDR6顯存(顯存帶寬560GB/s)為大型模型訓(xùn)練和推理提供了充足的資源,尤其適合需要高顯存容量的AI應(yīng)用和內(nèi)容創(chuàng)作場(chǎng)景。”——節(jié)選自DeepSeek-R1對(duì)銳炫A770 16GB的評(píng)價(jià)。

測(cè)試平臺(tái)

wKgZO2faImyAHhgHAAEtWmJNSKU401.png

本次測(cè)試的平臺(tái)是英特爾大全套,處理器是酷睿Ultra 9 285K。其實(shí)在這次測(cè)試中,CPU反而不太重要,拿顆酷睿Ultra 5也行。重點(diǎn)反而是主板,最好選一些兩個(gè)PCIe 5.0 x8插槽的主板。

wKgZO2faIn6AMzYQAArf0T5TiDM652.png

您也許會(huì)問為什么我給出這樣的建議但是卻用了技嘉Z890 AORUS MASTER這塊配置為PCIe 5.0 x16(CPU)、PCIe 4.0 x1(芯片組)和PCIe 4.0 x4(芯片組)各一個(gè)的主板。原因也很簡(jiǎn)單,本來打算用的Z890主板的Killer網(wǎng)卡比較新,在本次系統(tǒng)里似乎暫時(shí)缺乏驅(qū)動(dòng)支持,于是就這樣了。

前期準(zhǔn)備

目前這個(gè)方案只能在Linux環(huán)境下面用,因此安裝系統(tǒng)便成了首先要解決的問題。根據(jù)英特爾樹外驅(qū)動(dòng)的要求,我安裝了Ubuntu 22.04.1(內(nèi)核是Kernel 6.5.0-35-generic)。因?yàn)長(zhǎng)inux基本離不開終端操作,所以接下來我會(huì)說得簡(jiǎn)要一點(diǎn),畢竟要把一大段命令當(dāng)成正文頗有種水字?jǐn)?shù)的感覺,不利于閱讀(我就假定在讀本文的各位和我一樣略懂點(diǎn)Ubuntu就好了,反正也就用到sudo apt install這些命令)。

裝完系統(tǒng)之后便是樹外驅(qū)動(dòng)了。反正照著英特爾的文檔添加軟件源,然后裝上intel-i915-dkms和intel-fw-gpu這兩個(gè)軟件包,把當(dāng)前用戶分到渲染組就可以了。

重啟后,用lspci或者xpu-smi(這個(gè)需要額外安裝)可以看到兩張銳炫A770 16GB已經(jīng)就位。至于多出來的那個(gè)non-VGA設(shè)備則是酷睿Ultra的NPU,不用去管它。

wKgZO2faIpCAU5VtAAMeG2Yuek4629.pngwKgZO2faIrmAD8LcAAapkW4-cHM206.png

接下來的操作就很簡(jiǎn)單了,畢竟我們是通過docker來運(yùn)行前后端的,如果玩過NAS的話應(yīng)該知道docker有多好用——只要您有一個(gè)足夠良好的網(wǎng)絡(luò)。不過我們有現(xiàn)成的鏡像和腳本,倒不用進(jìn)行拉取這一步,如果您要照做的話,請(qǐng)拉取open-webui(前端)和intelanalytics/ipex-llm-serving-xpu:2.2.0-b12-client(后端)這兩個(gè)鏡像。腳本的話可以結(jié)合最下面的鏈接,同時(shí)參考下面的截圖。

wKgZO2faIhWACLuaAAFXxl0NUIs117.jpgwKgZPGfaIhaAZCiLAAFWPvqLvSc942.jpgwKgZO2faIsyAB7BGAAaXiY8Yf_I635.png

這里順便說一下ipex-llm是什么,它是一個(gè)為英特爾GPU打造的LLM加速庫,支持核顯、銳炫獨(dú)立顯卡和數(shù)據(jù)中心顯卡等設(shè)備,并已經(jīng)和llama.cpp、Ollama和vLLM等框架無縫集成。

最后是AI模型DeepSeek-R1-Distill-Qwen-32B-AWQ,這個(gè)用huggingface-cli下載就行。記得把環(huán)境變量改成鏡像站hf-mirror.com,可以提高下載速度;還有就是把模型下到本地文件夾里面,不使用huggingface-cli的緩存系統(tǒng)。

對(duì)了,如果您不打算更改上面的腳本內(nèi)容,這里建議把下載的所有東西都扔到根目錄下的/model文件夾中。

參考閱讀1:樹外驅(qū)動(dòng)安裝《Installing Data Center GPU: LTS Releases》

參考閱讀2:通過docker部署AI服務(wù)《vLLM Serving with IPEX-LLM on Intel GPUs via Docker》

實(shí)際體驗(yàn)

準(zhǔn)備工作完了之后,接下來就非常簡(jiǎn)單了,用腳本啟動(dòng)前后端容器,并啟動(dòng)后端應(yīng)用即可。

在本地機(jī)上訪問127.0.0.1:8080就能見到Open WebUI的主界面了,這個(gè)服務(wù)是對(duì)局域網(wǎng)開放的,所以我們也可以用連到同一個(gè)網(wǎng)絡(luò)的設(shè)備去訪問它,比如手機(jī)和平板。

wKgZO2faIhaAGyAIAADGLIxhxzo851.jpgwKgZO2faIuSAdsQRAAQAv4bQc2I442.png

接下來的界面相信大家就很熟悉了,就和平時(shí)用的網(wǎng)頁chatbot一樣。只不過這一次所有的服務(wù)都運(yùn)行于本地,不受網(wǎng)絡(luò)波動(dòng)的影響,拔掉路由器的WAN口也一切如常。

wKgZPGfaIvmAYAfZAAN8ymW8U0Q031.png

來看看它的運(yùn)行速度。單個(gè)用戶訪問時(shí),平均生成速度在26 tokens/s左右。在上圖的演示里面,我們讓它用HTML寫了個(gè)貪吃蛇,完成后右側(cè)就出現(xiàn)了窗口,可以馬上進(jìn)行游玩。另外,還可以根據(jù)需求叫AI修改代碼,比如這次我叫它把貪吃蛇改成自動(dòng)運(yùn)行,這樣截圖會(huì)方便一點(diǎn)。

wKgZPGfaIwaAUiZ0AAmx4vlz12Q294.png


單用戶使用

但這顯然還不是這套平臺(tái)的極限。我們?cè)嚵嗽囋谌_(tái)設(shè)備(本機(jī) + 另一臺(tái)電腦 + 手機(jī))上同時(shí)訪問AI服務(wù),平均生成速度可以達(dá)到66tokens/s。無論在哪臺(tái)設(shè)備上,AI都沒有出現(xiàn)卡殼的現(xiàn)象,輸出文字的速度很快。

wKgZPGfaIxSAczwcAAoJjG_nxFM079.png


多用戶使用

附加內(nèi)容:如何切換模型?

正當(dāng)我們體驗(yàn)DeepSeek-R1蒸餾模型的時(shí)候,國(guó)內(nèi)另一家實(shí)力同樣強(qiáng)勁的大模型團(tuán)隊(duì)通義發(fā)布了他們的推理模型QwQ-32B。該模型在AIME24、LiveBench等多個(gè)基準(zhǔn)測(cè)試中表現(xiàn)出不弱于DeepSeek-R1 671B也就是滿血版DeepSeek-R1的實(shí)力,更是要比上面運(yùn)行的蒸餾模型要強(qiáng)得多。因此我們也在這里介紹一下如何把模型切換成QwQ-32B(以及其他你想體驗(yàn)的模型)。

wKgZPGfaIhmAQsiNAAD3aV7wgks148.jpg


來源:Qwen博客

首先還是用huggingface-cli把QwQ-32B的模型拖到/model文件夾中,我們這次選擇的是QwQ-32B-AWQ,也就是用AWQ量化的版本。

接下來只需要修改上面圖片中的ds.sh腳本就行,當(dāng)然,這里建議直接復(fù)制一份并重命名為QwQ.sh再進(jìn)行修改,便于日后操作。要修改的地方不多,就是前面兩行的路徑和命名而已。做好這部分工作后重啟一下后端容器,用腳本啟動(dòng)即可。

wKgZPGfaIyeASbogAAU_OE3DXic811.png


我這里沒有改名,直接保存了

至于QwQ-32B-AWQ在這套平臺(tái)上的運(yùn)行情況和蒸餾模型時(shí)類似,平均生成速度也是26 token/s。另外我們特意用xpu-smi監(jiān)測(cè)了兩張顯卡的顯存占用情況,每張顯卡各消耗了14GB顯存左右,合起來大約是28GB。如果要僅用一張卡處理這么大的模型,那預(yù)算真的要花上不少。

wKgZO2faIzqALGqPAAV2GLrpmcU052.pngwKgZO2faIhqATlO9AAF0cJo57Bo877.jpg

總結(jié)

總的來說,兩張銳炫A770 16GB確實(shí)是一個(gè)性價(jià)比較高的本地部署AI方案。正如我在開頭所說,不把二手設(shè)備算在內(nèi)的話,現(xiàn)在3600元您真的很難買到一張NVIDIA或者AMD的大顯存顯卡,但是一口氣買兩張銳炫A770 16GB(甚至還是OC版)是完全有可能的,更進(jìn)一步地說,由于單卡價(jià)格的足夠?qū)嵒?,你還可以買更多張去運(yùn)行參數(shù)量更大的模型(當(dāng)然,這時(shí)候主板和處理器會(huì)比銳炫A770要貴得多)。除了硬件上足夠有性價(jià)比外,我們還要強(qiáng)調(diào)一下軟件上的優(yōu)勢(shì):銳炫顯卡有著來自英特爾完善的驅(qū)動(dòng)和加速庫支持,部署時(shí)docker鏡像一拉就完事,然后運(yùn)行時(shí)雙卡都能拼盡全力,這些點(diǎn)也是相當(dāng)重要的。

wKgZPGfaI0iAXvg8AArxcsmFBQQ418.png

接下來也說說這個(gè)方案的一些注意的點(diǎn)。首先就是功耗和發(fā)熱了,雖然您不會(huì)每分鐘都向AI提問,但是如果把它當(dāng)作一臺(tái)全時(shí)運(yùn)行的AI服務(wù)器的話,累積下來的耗電(還有制造的熱量)還是挺“可觀”的。其次就是部署的難度問題,如果您不是從事計(jì)算機(jī)方面的工作,用Ubuntu這些Linux發(fā)行版還是一件蠻有挑戰(zhàn)性的事——事實(shí)上在測(cè)試過程中,我也因?yàn)樘脹]搗鼓路由器和NAS而忘掉一些命令的用法,只好不停地“--help”。

不過話說回來,這兩種情況在未來都是可以改變的。英特爾表示在未來,玩家將可以用2塊銳炫B580搭建AI服務(wù)器,以及加入對(duì)Windows 11的支持,對(duì)于絕大部分的玩家來說,后者尤其是好事。當(dāng)然,如果你只是想簡(jiǎn)單體驗(yàn)英特爾硬件的AI性能,也可以直接下載英特爾AI Playground這個(gè)應(yīng)用就是了。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10332

    瀏覽量

    181209
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    859

    瀏覽量

    3425
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    本地部署OpenClaw,只要500元的開發(fā)板?

    成為了新方向,類似樹莓派這樣的開發(fā)板則被愛好者們視為Openclaw本地部署的新載體。 ? OpenClaw 的性能消耗主要集中在模型推理和云端交互、任務(wù)調(diào)度、外設(shè)聯(lián)動(dòng)三大環(huán)節(jié),不同使用場(chǎng)景對(duì)硬件的需求差異顯著,高
    的頭像 發(fā)表于 03-20 14:56 ?2322次閱讀
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>OpenClaw,只要500元的開發(fā)板?

    免費(fèi)本地部署的數(shù)據(jù)庫 DevOps 工具,覆蓋多少日常工作場(chǎng)景?以 NineData 社區(qū)版為例

    本文以 NineData 社區(qū)版為例,探討免費(fèi)本地部署的數(shù)據(jù)庫 DevOps 工具。其不是單一審核模板,而是集成多能力的本地工作臺(tái),涵蓋日常操作、治理協(xié)同、運(yùn)維保障等功能,將查、審、改、追等動(dòng)作銜接。適合有
    的頭像 發(fā)表于 03-17 14:57 ?681次閱讀
    免費(fèi)<b class='flag-5'>本地</b><b class='flag-5'>部署</b>的數(shù)據(jù)庫 DevOps 工具,<b class='flag-5'>能</b>覆蓋多少日常工作場(chǎng)景?以 NineData 社區(qū)版為例

    如何在ZYNQ本地部署DeepSeek模型

    一個(gè)將最小號(hào) DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項(xiàng)目。
    的頭像 發(fā)表于 12-19 15:43 ?7905次閱讀
    如何在ZYNQ<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>模型

    工業(yè)物聯(lián)網(wǎng)平臺(tái)適合私有本地部署還是云端部署

    工業(yè)物聯(lián)網(wǎng)平臺(tái)的部署方式需根據(jù)企業(yè)核心需求選擇, 私有本地部署適合數(shù)據(jù)安全要求極高、需深度定制且具備技術(shù)實(shí)力的企業(yè);云端部署則更適合追求成本效益、靈活擴(kuò)展及快速上線的中小型企業(yè)或?qū)崟r(shí)性
    的頭像 發(fā)表于 11-12 11:42 ?574次閱讀
    工業(yè)物聯(lián)網(wǎng)平臺(tái)適合私有<b class='flag-5'>本地</b><b class='flag-5'>部署</b>還是云端<b class='flag-5'>部署</b>?

    微RISC-V核MCU芯片在智能電表中的應(yīng)用

    上海貝嶺股份有限公司全資子公司深圳市微科技有限公司近日推出了電表行業(yè)首顆RISC-V核MCU芯片。該芯片主要面向出口電表市場(chǎng),同時(shí)為國(guó)網(wǎng)及南網(wǎng)下一步的國(guó)產(chǎn)化內(nèi)核MCU做好了準(zhǔn)備
    的頭像 發(fā)表于 11-07 16:48 ?1708次閱讀
    <b class='flag-5'>銳</b><b class='flag-5'>能</b>微RISC-V<b class='flag-5'>雙</b>核MCU芯片在智能電表中的應(yīng)用

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語言模型(LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實(shí)現(xiàn)私有化、定制化服務(wù)并保障數(shù)據(jù)安全。本文將詳細(xì)闡述部署DeepSee
    的頭像 發(fā)表于 10-13 16:52 ?1201次閱讀

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺(tái)上成功部署并運(yùn)行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側(cè)AI設(shè)備的處理效率與智能化水平,特別是在本地化復(fù)雜
    的頭像 發(fā)表于 09-26 13:35 ?1017次閱讀

    本地部署openWebUI + ollama+DeepSeek 打造智能知識(shí)庫并實(shí)現(xiàn)遠(yuǎn)程訪問

    。 DeepSeek 作為一個(gè)開源的大語言模型,我們可以通過 ZeroNews + openWebUI + ollama的方式,輕松的在本地私有化部署 DeepSeek,不受網(wǎng)絡(luò)攻擊影
    的頭像 發(fā)表于 09-10 16:41 ?5548次閱讀
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知識(shí)庫并實(shí)現(xiàn)遠(yuǎn)程訪問

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+混合專家

    感謝電子發(fā)燒友提供學(xué)習(xí)Deepseek核心技術(shù)這本書的機(jī)會(huì)。 讀完《Deepseek核心技術(shù)揭秘》,我深受觸動(dòng),對(duì)人工智能領(lǐng)域有了全新的認(rèn)識(shí)。了解Deepseek-R1 、Deepseek
    發(fā)表于 07-22 22:14

    能源監(jiān)測(cè)管理平臺(tái)是本地部署好還是云端部署好?

    能源監(jiān)測(cè)管理平臺(tái)本地部署和云端部署各有優(yōu)劣,企業(yè)需根據(jù)自身需求和實(shí)際情況選擇。如果企業(yè)對(duì)數(shù)據(jù)安全要求極高、網(wǎng)絡(luò)環(huán)境特殊且預(yù)算充足,本地
    的頭像 發(fā)表于 07-22 15:16 ?683次閱讀
    能源監(jiān)測(cè)管理平臺(tái)是<b class='flag-5'>本地</b>化<b class='flag-5'>部署</b>好還是云端<b class='flag-5'>部署</b>好?

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書籍介紹+第一章讀后心得

    大模型圈子,其多項(xiàng)性能超過了當(dāng)時(shí)處于領(lǐng)先地位的ChatGPT 4,證明了不需要高昂的費(fèi)用訓(xùn)練出優(yōu)質(zhì)大模型。這激起了我的好奇心,借著這次機(jī)會(huì)好好閱讀一下DeepSeek的核心技術(shù)。
    發(fā)表于 07-17 11:59

    DeepSeek評(píng)主流PLC:國(guó)產(chǎn)PLC性價(jià)比能否吊打國(guó)際大牌?

    在揭曉答案之前,我們先來看下DeepSeek是如何評(píng)市面上的主流PLC。
    的頭像 發(fā)表于 06-14 15:29 ?1435次閱讀
    <b class='flag-5'>DeepSeek</b><b class='flag-5'>銳</b>評(píng)主流PLC:國(guó)產(chǎn)PLC<b class='flag-5'>性價(jià)比</b>能否吊打國(guó)際大牌?

    【書籍評(píng)測(cè)活動(dòng)NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    MoE 訓(xùn)練中的通信瓶頸,實(shí)現(xiàn)了高效穩(wěn)定的訓(xùn)練。DeepSeek-V3 是業(yè)界率先使用 FP8 進(jìn)行混合精度訓(xùn)練的開源模型。 在推理部署方面,DeepSeek-V3 采用 預(yù)填充(Prefilling
    發(fā)表于 06-09 14:38

    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板本地部署DeepSeek大模型的完整指南

    ELF 2開發(fā)板本地部署DeepSeek大模型的完整指南
    的頭像 發(fā)表于 05-16 11:13 ?2813次閱讀
    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大模型的完整指南

    瑞薩RZ/V2H平臺(tái)支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺(tái)支持部署離線版DeepSeek -R1大語言模型
    的頭像 發(fā)表于 05-13 17:07 ?1917次閱讀
    瑞薩RZ/V2H平臺(tái)支持<b class='flag-5'>部署</b>離線版<b class='flag-5'>DeepSeek</b> -R1大語言模型
    保靖县| 静安区| 克什克腾旗| 莆田市| 利津县| 靖州| 淮滨县| 称多县| 台山市| 浏阳市| 门源| 福贡县| 柳河县| 都兰县| 临清市| 固镇县| 平山县| 长寿区| 杭锦后旗| 镇坪县| 义乌市| 大埔县| 安丘市| 楚雄市| 洛南县| 镇宁| 饶阳县| 肃宁县| 新巴尔虎左旗| 大姚县| 渑池县| 黄梅县| 永吉县| 扶余县| 泸西县| 榆树市| 营山县| 彰武县| 潢川县| 临猗县| 长汀县|