日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

簡單三步使用OpenVINO?搞定ChatGLM3的本地部署

英特爾物聯網 ? 來源:OpenVINO 中文社區(qū) ? 2024-04-03 18:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

工具介紹

英特爾OpenVINO 工具套件是一款開源AI推理優(yōu)化部署的工具套件,可幫助開發(fā)人員和企業(yè)加速生成式人工智能 (AIGC)、大語言模型、計算機視覺和自然語言處理等 AI 工作負載,簡化深度學習推理的開發(fā)和部署,便于實現從邊緣到云的跨英特爾 平臺的異構執(zhí)行。

ChatGLM3是智譜AI和清華大學KEG實驗室聯合發(fā)布的對話預訓練模型。ChatGLM3-6B是ChatGLM3系列中的開源模型,在保留了前兩代模型對話流暢、部署門檻低等眾多優(yōu)秀特性的基礎上,ChatGLM3-6B引入了以下新特性:

1

更強大的基礎模型:

ChatGLM3-6B的基礎模型ChatGLM3-6B-Base采用了更多樣的訓練數據、更充分的訓練步數和更合理的訓練策略。在語義、數學、推理、代碼、知識等不同角度的數據集上測評顯示,ChatGLM3-6B-Base具有在10B以下的預訓練模型中領先的性能。

2

更完整的功能支持:

ChatGLM3-6B采用了全新設計的Prompt格式,除正常的多輪對話外,同時原生支持工具調用 (Function Call)、代碼執(zhí)行 (Code Interpreter) 和Agent任務等復雜場景。

3

更全面的開源序列:

除了對話模型ChatGLM3-6B外,還開源了基礎模型ChatGLM-6B-Base、長文本對話模型ChatGLM3-6B-32K。以上所有權重對學術研究完全開放,在填寫問卷進行登記后亦允許免費商業(yè)使用。

8c1a646e-f19a-11ee-a297-92fbcf53809c.png

圖:基于Optimum-intel與OpenVINO部署生成式AI模型流程

英特爾為開發(fā)者提供了快速部署ChatGLM3-6B的方案支持。開發(fā)者只需要在GitHub上克隆示例倉庫,進行環(huán)境配置,并將Hugging Face模型轉換為OpenVINO IR模型,即可進行模型推理。由于大部分步驟都可以自動完成,因此開發(fā)者只需要簡單的工作便能完成部署,目前該倉庫也被收錄在GhatGLM3的官方倉庫和魔搭社區(qū)Model Card中,接下來讓我們一起看下具體的步驟和方法:

示例倉庫:

https://github.com/OpenVINO-dev-contest/chatglm3.openvino

官方倉庫:

https://github.com/THUDM/ChatGLM3?tab=readme-ov-file#openvino-demo

Model Card:

https://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/summary#

1

模型轉換

當你按倉庫中的README文檔完成集成環(huán)境配置后,可以直接通過以下命令運行模型轉換腳本:

python3 convert.py --model_id THUDM/chatglm3-6b –output {your_path}/chatglm3-6b-ov

該腳本首先會利用Transformers庫從Hugging Face的model hub中下載并加載原始模型的PyTorch對象,如果開發(fā)者在這個過程中無法訪問Hugging Face的model hub,也可以通過配置環(huán)境變量的方式,將模型下載地址更換為鏡像網站,并將convert.py腳本的model_id參數配置為本地路徑,具體方法如下:

$env:HF_ENDPOINT = https://hf-mirror.com
huggingface-cli download --resume-download --local-dir-use-symlinks False THUDM/chatglm3-6b --local-dir {your_path}/chatglm3-6b
python3 convert.py --model_id {your_path}/chatglm3-6b --output {your_path}/chatglm3-6b-ov

當獲取PyTorch的模型對象后,該腳本會利用OpenVINO的PyTorch frontend進行模型格式的轉換,執(zhí)行完畢后,你將獲取一個由.xml和.bin文件所構成的OpenVINO IR模型文件,該模型默認以FP16精度保存。

2

權重量化

該步驟為可選項,開發(fā)者可以通過以下腳本,將生成的OpenVINO模型通過權重量化策略,進一步地壓縮為4-bits或者是8-bits的精度,以獲取更低的推理延時及系統(tǒng)資源占用。

python3 quantize.py --model_path {your_path}/chatglm3-6b-ov --precision int4 --output {your_path}/chatglm3-6b-ov-int4

執(zhí)行完畢后,你將獲得經過壓縮后的IR模型文件,以INT4對稱量化為例,該壓縮后的模型文件的整體容量大約為4GB左右。

8c3150b6-f19a-11ee-a297-92fbcf53809c.png

圖:量化后的OpenVINO模型文件

同時在量化結束后,亦會在終端上打印模型的量化比例,如下圖所示。

8c587254-f19a-11ee-a297-92fbcf53809c.png

圖:量化比例輸出

由于OpenVINO NNCF工具的權重壓縮策略只針對于大語言模型中的Embedding和Linear這兩種算子,所以該表格只會統(tǒng)計這兩類算子的量化比例。其中ratio-defining parameter是指我們提前通過接口預設的混合精度比例,也就是21%權重以INT8表示,79%以INT4表示,這也是考慮到量化對ChatGLM3模型準確度的影響,事先評估得到的配置參數,開發(fā)者亦可以通過這個示例搜索出適合其他模型的量化參數。此外鑒于第一層Embedding layer和模型最后一層操作對于輸出準確度的影響,NNCF默認會將他們以INT8表示,這也是為何all parameters中顯示的混合精度比例會有所不同。當然開發(fā)者也可以通過nncf.compress_weights接口中設置all_layers=True,開關閉該默認策略。

示例:

https://github.com/openvinotoolkit/nncf/tree/develop/examples/llm_compression/openvino/tiny_llama_find_hyperparams

3

模型轉換

最后一步就是模型部署了,這里展示的是一個Chatbot聊天機器人的示例,這也是LLM應用中最普遍,也是最基礎的pipeline,而OpenVINO可以通過Optimum-intel工具為橋梁,復用Transformers庫中預置的pipeline,因此在這個腳本中我們會對ChatGLM3模型再做一次封裝,以繼承并改寫OVModelForCausalLM類中的方法,實現對于Optimum-intel工具的集成和適配。以下為該腳本的運行方式:

python3 chat.py --model_path {your_path}/chatglm3-6b-ov-int4 --max_sequence_length 4096 --device CPU

如果開發(fā)者的設備中包含英特爾的GPU產品,例如Intel ARC系列集成顯卡或是獨立顯卡,可以在這個命令中將device參數改為GPU,以激活更強大的模型推理能力。

在終端里運行該腳本后,會生成一個簡易聊天對話界面,接下來你就可以驗證它的效果和性能了。

總結

通過模型轉換、量化、部署這三個步驟,我們可以輕松實現在本地PC上部署ChatGLM3-6b大語言模型,經測試該模型可以流暢運行在最新的Intel Core Ultra異構平臺及至強CPU平臺上,作為眾多AI agent和RAG等創(chuàng)新應用的核心基石,大語言模型的本地部署能力將充分幫助開發(fā)者們打造更安全,更高效的AI解決方案。


審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50366

    瀏覽量

    267056
  • 計算機視覺
    +關注

    關注

    9

    文章

    1716

    瀏覽量

    47733
  • pytorch
    +關注

    關注

    2

    文章

    813

    瀏覽量

    14930
  • OpenVINO
    +關注

    關注

    0

    文章

    118

    瀏覽量

    818

原文標題:簡單三步使用OpenVINO? 搞定ChatGLM3的本地部署 | 開發(fā)者實戰(zhàn)

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何用 MQTT 實現設備間通信(超簡單實操版)

    Topic,就能穩(wěn)定雙向傳數據,弱網、低功耗場景也適配。 全程三步落地,零門檻搭建通信鏈路。第一,備好MQTT Broker服務器,新手測試直接用免費公共節(jié)點,無需安裝部署,省時省力;商用項目就
    發(fā)表于 04-28 13:51

    菱FX3U串口PLC遠程編程實現方法(下)

    下面介紹如何利用華辰智通Hinet網關完成對菱FX3U串口PLC的遠程編程操作。 遠程編程整體分為五個步驟: 第一:開啟華辰智通Hinet工業(yè)智能網關,配置串口相關參數; 第二
    的頭像 發(fā)表于 04-21 11:22 ?238次閱讀
    <b class='flag-5'>三</b>菱FX<b class='flag-5'>3</b>U串口PLC遠程編程實現方法(下)

    三步教你鑒別星貼片電容CL21B104KBCNNNC 的真?zhèn)?/a>

    要鑒別星貼片電容CL21B104KBCNNNC的真?zhèn)?,可通過以下三步進行詳細觀察與比對: ? 第一:觀察外觀與包裝細節(jié) 字跡與表面處理 真品字跡清晰、字體標準,無模糊或重影;表面光滑勻稱,無氣泡
    的頭像 發(fā)表于 04-03 15:50 ?121次閱讀
    <b class='flag-5'>三步</b>教你鑒別<b class='flag-5'>三</b>星貼片電容CL21B104KBCNNNC 的真?zhèn)? />    </a>
</div>                              <div   id=

    本地部署OpenClaw,只要500元的開發(fā)板?

    也成為了新方向,類似樹莓派這樣的開發(fā)板則被愛好者們視為Openclaw本地部署的新載體。 ? OpenClaw 的性能消耗主要集中在模型推理和云端交互、任務調度、外設聯動大環(huán)節(jié),不同使用場景對硬件的需求差異顯著,高性價比的方案
    的頭像 發(fā)表于 03-20 14:56 ?2275次閱讀
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>OpenClaw,只要500元的開發(fā)板?

    技嘉與趨境科技聯合部署AMaaS平臺 推動本地大模型應用加速落地

    在生成式AI加速走向實際應用的當下,大模型部署正從“可體驗”邁向“可落地、可管理、可應用”。作為技嘉面向本地AI場景打造的重要產品,AI TOP ATOM具備強大的桌面級本地AI算力,搭載了
    的頭像 發(fā)表于 03-12 15:11 ?215次閱讀
    技嘉與趨境科技聯合<b class='flag-5'>部署</b>AMaaS平臺 推動<b class='flag-5'>本地</b>大模型應用加速落地

    CANDTU設備上云實戰(zhàn):兩完成接入,三步玩轉數據

    CANDTU云平臺既能本地看數,又能遠程上云分析,但設備怎么接入?本期手把手教你兩完成配置,三步掌握數據查看技巧。CANDTU系列設備:滿足多樣化傳輸需求ZLG致遠電子CANDTU系列包含
    的頭像 發(fā)表于 02-14 11:39 ?263次閱讀
    CANDTU設備上云實戰(zhàn):兩<b class='flag-5'>步</b>完成接入,<b class='flag-5'>三步</b>玩轉數據

    迅為RK3588開發(fā)環(huán)境搭建“三步曲”,從零到一輕松上手!

    迅為RK3588開發(fā)環(huán)境搭建“三步曲”,從零到一輕松上手!
    的頭像 發(fā)表于 12-01 11:51 ?1355次閱讀
    迅為RK3588開發(fā)環(huán)境搭建“<b class='flag-5'>三步</b>曲”,從零到一輕松上手!

    本地部署Stable Diffusion實現AI文字生成高質量矢量圖片應用于電子商務

    本地部署Stable Diffusion
    的頭像 發(fā)表于 11-28 07:19 ?930次閱讀

    工業(yè)物聯網平臺適合私有本地部署還是云端部署

    工業(yè)物聯網平臺的部署方式需根據企業(yè)核心需求選擇, 私有本地部署適合數據安全要求極高、需深度定制且具備技術實力的企業(yè);云端部署則更適合追求成本效益、靈活擴展及快速上線的中小型企業(yè)或實時性
    的頭像 發(fā)表于 11-12 11:42 ?561次閱讀
    工業(yè)物聯網平臺適合私有<b class='flag-5'>本地</b><b class='flag-5'>部署</b>還是云端<b class='flag-5'>部署</b>?

    工程師整理:UPS電源選購“三步法”,從看懂參數到下單不出錯

    將分享一套簡單實用的"三步選型法",幫助技術主管和企業(yè)輕松選出最適合的UPS電源。第一:讀懂關鍵參數,不再被專業(yè)術語迷惑核心參數解析:容量(VA/W):這是最重
    的頭像 發(fā)表于 09-05 09:26 ?1427次閱讀
    工程師整理:UPS電源選購“<b class='flag-5'>三步</b>法”,從看懂參數到下單不出錯

    能源監(jiān)測管理平臺是本地部署好還是云端部署好?

    能源監(jiān)測管理平臺本地部署和云端部署各有優(yōu)劣,企業(yè)需根據自身需求和實際情況來選擇。如果企業(yè)對數據安全要求極高、網絡環(huán)境特殊且預算充足,本地部署
    的頭像 發(fā)表于 07-22 15:16 ?677次閱讀
    能源監(jiān)測管理平臺是<b class='flag-5'>本地</b>化<b class='flag-5'>部署</b>好還是云端<b class='flag-5'>部署</b>好?

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    行動。本文將一步步帶你在本地服務器上完成該模型的部署,并搭建一個直觀的 Web 交互界面,親身體驗前沿 AI 的“思考”過程。
    的頭像 發(fā)表于 07-09 10:17 ?1038次閱讀

    無法將Openvino? 2025.0與onnx運行時Openvino? 執(zhí)行提供程序 1.16.2 結合使用,怎么處理?

    使用OpenVINO?與英特爾 i5-8500 CPU 和超核處理器 630 iGPU 一起部署模型。 使用了 Microsoft.ML.OnnxRuntime.OpenVino
    發(fā)表于 06-24 06:31

    本地服務器部署怎么選?一招搞定企業(yè)IT成本、性能與安全問題!

    ,往往糾結萬分。其實,企業(yè)本地服務器部署方案依然有其獨特優(yōu)勢,只要選得對,照樣能在IT成本、性能、安全方面實現全兼顧!
    的頭像 發(fā)表于 05-26 13:07 ?877次閱讀
    <b class='flag-5'>本地</b>服務器<b class='flag-5'>部署</b>怎么選?一招<b class='flag-5'>搞定</b>企業(yè)IT成本、性能與安全問題!

    Intel OpenVINO? Day0 實現阿里通義 Qwen3 快速部署

    本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 在英特爾平臺(GPU, NPU)Qwen3 系列模型。
    的頭像 發(fā)表于 05-11 11:36 ?1915次閱讀
    Intel <b class='flag-5'>OpenVINO</b>? Day0 實現阿里通義 Qwen<b class='flag-5'>3</b> 快速<b class='flag-5'>部署</b>
    曲松县| 兴安县| 巫山县| 巴里| 新密市| 蕲春县| 云林县| 南川市| 永新县| 临江市| 德昌县| 衡南县| 高平市| 稷山县| 东阿县| 星座| 静乐县| 随州市| 汕头市| 叙永县| 榕江县| 永昌县| 安徽省| 玛多县| 福安市| 隆林| 理塘县| 鹤壁市| 奉节县| 大冶市| 界首市| 新巴尔虎左旗| 斗六市| 商洛市| 平阳县| 沙坪坝区| 龙井市| 新郑市| 东安县| 廉江市| 全州县|