日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

怎么把 EmbedClaw 從 Qwen 擴(kuò)到五款國產(chǎn)大模型

啟明云端 ? 2026-04-07 18:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前面幾篇,我已經(jīng)把 EmbedClaw 的整體架構(gòu)、上手方式、Tool 擴(kuò)展講得差不多了。

這一篇我不再重復(fù)入門,直接講最近這次更新里最實(shí)際的一件事:

66878e40-3269-11f1-ab55-92fbcf53809c.png

這里先把時(shí)間線說清楚,避免誤解。

EmbedClaw 最早并不是一開始就支持五家。

最早跑通的,只有 Qwen via DashScope。

直到最近,我才把 DeepSeek / 豆包 / Kimi / 混元 這幾組預(yù)設(shè)一起補(bǔ)進(jìn)來。

也就是說:

在最早先把 Qwen 跑通之后,我把多模型切換這件事正式補(bǔ)齊了。

現(xiàn)在,EmbedClaw 可以直接切下面這五家國產(chǎn)模型:

6692056e-3269-11f1-ab55-92fbcf53809c.png

這一篇,我就把這件事一次講清楚:

66a71972-3269-11f1-ab55-92fbcf53809c.png

項(xiàng)目地址:

https://github.com/wireless-tag-com/EmbedClaw


01

為什么這五家我都放進(jìn)同一條接入鏈路

主要核心是這些都兼容OpenAI的調(diào)用方式

所以你在倉庫里會(huì)看到兩件事:

components/embed_claw/llm/ec_llm.c 默認(rèn)初始化的是 openai provider

components/embed_claw/ec_config_internal.h 里內(nèi)置了五組模型預(yù)設(shè)

這意味著,在 EmbedClaw 里切模型,本質(zhì)上不是重寫 Agent,也不是重寫 Tool。

真正會(huì)變的,通常只有三項(xiàng):

API Key

API URL

Model

這就是我想要的效果。

模型應(yīng)該是可替換的,而不是把整個(gè)工程綁死在某一家平臺(tái)上。

02

先說一個(gè)最關(guān)鍵的點(diǎn)

前面幾篇如果你已經(jīng)跟著做過,這里我只提醒一句:

真正該改的是 main/ec_config.h,不是組件里的默認(rèn)配置。

倉庫里的 components/embed_claw/ec_config_internal.h 負(fù)責(zé)提供默認(rèn)值,你自己的模型切換和密鑰覆蓋,放到 main/ec_config.h 就夠了。

一個(gè)最小模板可以直接寫成這樣:

#defineEC_USE_QWEN 1#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_API_KEY"

這幾個(gè)規(guī)則先記住,后面就不會(huì)配亂:66bb9fc8-3269-11f1-ab55-92fbcf53809c.png

如果你想把地址和模型名也一起寫死,可以這樣寫:

#defineEC_LLM_PROVIDER_NAME "openai"#defineEC_LLM_API_URL "https://your-endpoint/v1/chat/completions"#defineEC_LLM_MODEL "your-model-name"#defineEC_LLM_API_KEY "YOUR_API_KEY"

這也是我一直想要的開發(fā)體驗(yàn):

切模型,應(yīng)該是改配置,不應(yīng)該是拆架構(gòu)。

03

五款大模型

01

通義千問

千問是 EmbedClaw 最早就有的那條鏈路。

它不只是當(dāng)前默認(rèn)模型,也是我最早跑通的默認(rèn)模型。

當(dāng)前倉庫里的默認(rèn)值是:

#defineEC_QWEN_LLM_API_URL "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions"#defineEC_QWEN_LLM_MODEL "qwen-plus"

也就是說,如果你先跑千問,通常只要把 EC_LLM_API_KEY 填進(jìn)去就夠了。


申請(qǐng) API Key

打開阿里云 Model Studio API Key文檔

(https://help.aliyun.com/zh/model-studio/get-api-key)

  1. 66cbe784-3269-11f1-ab55-92fbcf53809c.png

按文檔里的入口進(jìn)入 API-KEY Management

登錄你的阿里云賬號(hào)

創(chuàng)建一個(gè)新的 API Key

  1. 66da234e-3269-11f1-ab55-92fbcf53809c.png

復(fù)制并保存好

  1. 66e96bf6-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 1#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DASHSCOPE_API_KEY"

如果你不額外定義 EC_LLM_API_URL 和 EC_LLM_MODEL,EmbedClaw 就會(huì)自動(dòng)落到這組千問預(yù)設(shè)。

2

DeepSeek

DeepSeek 也是我在倉庫里直接做成預(yù)設(shè)的一組。

當(dāng)前默認(rèn)值是:

#defineEC_DEEPSEEK_LLM_API_URL "https://api.deepseek.com/v1/chat/completions"#defineEC_DEEPSEEK_LLM_MODEL "deepseek-chat"

切過去很簡單,關(guān)掉千問,打開 EC_USE_DEEPSEEK,然后換成你自己的 Key 就行。


申請(qǐng) API Key

打開DeepSeek首頁(https://deepseek.com/)

選擇API開放平臺(tái)

  1. 66f2fae0-3269-11f1-ab55-92fbcf53809c.png

創(chuàng)建 API Key

  1. 670594de-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 1#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DEEPSEEK_API_KEY"

如果你想先確認(rèn)是不是平臺(tái)側(cè)問題,我建議先拿一條最小請(qǐng)求把接口測(cè)通:

curl https://api.deepseek.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_DEEPSEEK_API_KEY" \ -d '{ "model":"deepseek-chat", "messages": [ { "role":"user","content":"hello" } ] }'

這是我自己調(diào)接口時(shí)常用的辦法。

先把云端接口確認(rèn)沒問題,再回頭看設(shè)備側(cè)日志,排查會(huì)快很多。

03

豆包

豆包這條線我想多說一句。

我在倉庫里也給它做了預(yù)設(shè),但豆包的實(shí)際接入,最好不要只靠默認(rèn)值去猜。

因?yàn)椴煌瑓^(qū)域、不同控制臺(tái)入口、不同開通模型,最后拿到的 URL 和 model 可能并不完全一樣。

當(dāng)前倉庫默認(rèn)值是:

#defineEC_DOUBAO_LLM_API_URL "https://ark.cn-beijing.volces.com/api/v3/chat/completions"#defineEC_DOUBAO_LLM_MODEL "doubao-seed-2-0-pro-260215"

但如果你控制臺(tái)里已經(jīng)給了明確的地址和模型名,我還是建議你直接覆蓋掉。


申請(qǐng) API Key

打開豆包API

點(diǎn)擊開啟AI新體驗(yàn)

  1. 67193bc4-3269-11f1-ab55-92fbcf53809c.png

點(diǎn)擊 API 接入

  1. 672bf05c-3269-11f1-ab55-92fbcf53809c.png

點(diǎn)擊創(chuàng)建

  1. 67390d0a-3269-11f1-ab55-92fbcf53809c.png

完成認(rèn)證

  1. 674b7472-3269-11f1-ab55-92fbcf53809c.png

開通模型后復(fù)制 URL、model 和 API Key

  1. 6758ac78-3269-11f1-ab55-92fbcf53809c.png


推薦配置

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 1#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DOUBAO_API_KEY"#defineEC_LLM_API_URL "控制臺(tái)給你的 URL"#defineEC_LLM_MODEL "控制臺(tái)給你的 model"

這條線我更推薦你按控制臺(tái)實(shí)際值來配,而不是完全依賴倉庫默認(rèn)值。

這樣最穩(wěn)。

04

Kimi

Kimi 這邊的接入也已經(jīng)內(nèi)置好了。

當(dāng)前默認(rèn)值是:

#defineEC_KIMI_LLM_API_URL "https://api.moonshot.cn/v1/chat/completions"#defineEC_KIMI_LLM_MODEL "kimi-k2.5"

這條線的思路和前面一樣,切換成本非常低。


申請(qǐng) API Key

打開Kimi開放平臺(tái)

點(diǎn)擊開始構(gòu)造

  1. 676bf256-3269-11f1-ab55-92fbcf53809c.png

選擇API Key管理,并創(chuàng)建 API Key

  1. 677f6016-3269-11f1-ab55-92fbcf53809c.png

輸入 API 名稱,選擇 default 項(xiàng)目

  1. 6793ecb6-3269-11f1-ab55-92fbcf53809c.png

復(fù)制 API Key

  1. 67a1587e-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 1#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_KIMI_API_KEY"

如果你后面想換成 Kimi 的其它具體模型,也一樣,顯式覆蓋 EC_LLM_MODEL 就行。

05

騰訊混元

很多人更熟悉“騰訊元寶”這個(gè)名字。

但對(duì)開發(fā)者來說,真正對(duì)應(yīng)的接入能力其實(shí)是“騰訊混元”API。

元寶是產(chǎn)品,混元是底層模型。

當(dāng)前倉庫默認(rèn)值是:

#defineEC_HUNYUAN_LLM_API_URL "https://api.hunyuan.cloud.tencent.com/v1/chat/completions"#defineEC_HUNYUAN_LLM_MODEL "hunyuan-turbos-latest"


申請(qǐng) API Key

打開騰訊混元大模型

創(chuàng)建API key

  1. 67b4e8c6-3269-11f1-ab55-92fbcf53809c.png

點(diǎn)擊查看,然后復(fù)制 API Key 即可

  1. 67be611c-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 1#defineEC_LLM_API_KEY "YOUR_HUNYUAN_API_KEY"

如果騰訊云控制臺(tái)給了你明確模型名,那就把 EC_LLM_MODEL 一起寫上,不用依賴默認(rèn)值。

04

最后給一份通用模板

如果你只是想先把其中一家跑起來,那下面這份 main/ec_config.h 模板可以直接改:

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 1#defineEC_LLM_PROVIDER_NAME "openai"#defineEC_LLM_API_KEY "YOUR_API_KEY"/* 平臺(tái)如果給了明確 URL 和 model,建議直接寫 *//* #define EC_LLM_API_URL "https://your-endpoint/v1/chat/completions" *//* #define EC_LLM_MODEL "your-model-name" *//* 可選 *//* #define EC_SECRET_SEARCH_KEY "YOUR_TAVILY_API_KEY" *//* #define EC_SECRET_FEISHU_APP_ID "YOUR_FEISHU_APP_ID" *//* #define EC_SECRET_FEISHU_APP_SECRET "YOUR_FEISHU_APP_SECRET" */

你把其中一家打開,把 Key 填進(jìn)去,基本就能開始測(cè)。

05

寫在最后

這次之所以能比較快地把這五家補(bǔ)進(jìn)來,一個(gè)很現(xiàn)實(shí)的原因就是:

它們本身都能走 OpenAI-Compatible 這條調(diào)用鏈路。

如果你手上還有自己常用、也支持 OpenAI-Compatible 調(diào)用的大模型,歡迎繼續(xù)往里加。

希望大家可以多多的參與進(jìn)來,改造EmbedClaw。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41315

    瀏覽量

    302691
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3797

    瀏覽量

    5278
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    0到多模型切換:EmbedClaw 讓AI開發(fā)不再“選邊站”

    ,還有Tool擴(kuò)展聊得差不多了。這一期,直接上“硬貨”:EmbedClaw已支持的五大國產(chǎn)模型,給你們一次講透。目前,EmbedClaw
    的頭像 發(fā)表于 04-28 16:02 ?150次閱讀
    <b class='flag-5'>從</b>0到多<b class='flag-5'>模型</b>切換:<b class='flag-5'>EmbedClaw</b> 讓AI開發(fā)不再“選邊站”

    壁仞科技光速支持阿里Qwen3.6-35B-A3B大模型

    強(qiáng)大的通用性以及全自研BIRENSUPA軟件棧的成熟度,旗下壁礪 166系列產(chǎn)品完成Qwen3.6-35B-A3B模型的光速適配。壁仞科技致力于為國產(chǎn)模型落地提供澎湃動(dòng)力,在此之前已
    的頭像 發(fā)表于 04-20 17:50 ?1580次閱讀

    一句話讓大模型控制硬件:手把手教你給 EmbedClaw 添加自己的 Tool!

    很多人第一次看到EmbedClaw會(huì)有一種錯(cuò)覺:然而事實(shí)是:不能直接操作,但可以通過Tool去操作。這也是EmbedClaw很有意思的一點(diǎn)。它不是模型硬塞進(jìn)ESP32里當(dāng)聊天機(jī)器人
    的頭像 發(fā)表于 04-01 18:32 ?158次閱讀
    一句話讓大<b class='flag-5'>模型</b>控制硬件:手把手教你給 <b class='flag-5'>EmbedClaw</b> 添加自己的 Tool!

    EmbedClaw可以使用QQ進(jìn)行控制啦!

    EmbedClaw最近更新了一個(gè)新的功能:那就是可以對(duì)接QQ機(jī)器人!那么本期,就讓我們QQ機(jī)器人直接接進(jìn)EmbedClaw,讓ESP32上的AIAgent真正在QQ里“活起來”。更關(guān)鍵的是,這條鏈
    的頭像 發(fā)表于 03-20 18:06 ?203次閱讀
    <b class='flag-5'>EmbedClaw</b>可以使用QQ進(jìn)行控制啦!

    沐曦股份曦云C系列GPU全面適配通義千問Qwen3.5三模型

    今日,通義千問團(tuán)隊(duì)正式開源發(fā)布Qwen3.5系列中等規(guī)模模型,推出包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen
    的頭像 發(fā)表于 02-28 10:05 ?757次閱讀
    沐曦股份曦云C系列GPU全面適配通義千問<b class='flag-5'>Qwen</b>3.5三<b class='flag-5'>款</b>新<b class='flag-5'>模型</b>

    摩爾線程MTT S5000全面適配Qwen3.5三模型

    繼開源Qwen3.5-397B-A17B之后,阿里再次宣布開源千問3.5最新三中等規(guī)模模型Qwen3.5-35B-A3B、Qwen3.5
    的頭像 發(fā)表于 02-26 16:23 ?816次閱讀

    沐曦股份曦云C系列GPU深度適配通義千問Qwen3.5模型

    今天,通義千問今天正式發(fā)布 Qwen3.5,并推出Qwen3.5系列的第一模型 Qwen3.5-397B-A17B 的開放權(quán)重版本。沐曦股
    的頭像 發(fā)表于 02-26 14:26 ?836次閱讀
    沐曦股份曦云C系列GPU深度適配通義千問<b class='flag-5'>Qwen</b>3.5<b class='flag-5'>模型</b>

    成都匯陽投資關(guān)于國產(chǎn)開源模型持續(xù)突破,國產(chǎn)AI 競爭力增強(qiáng)

    、MiniMax-M2 分別位列全球開源榜單第一 、 第二 ,且榜單前名中國產(chǎn)開源模型占據(jù)四席(Qwen3 235BA22B2507 和 DeepSeek V3.2 Exp 分別位列
    的頭像 發(fā)表于 11-24 14:01 ?755次閱讀

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型的訓(xùn)練適配和優(yōu)化。由此,壁仞科技已實(shí)現(xiàn)Qwen
    的頭像 發(fā)表于 05-16 16:23 ?1201次閱讀

    Arm CPU適配通義千問Qwen3系列模型

    與阿里巴巴開源的輕量級(jí)深度學(xué)習(xí)框架 MNN 已深度集成。得益于此,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三模型
    的頭像 發(fā)表于 05-12 16:37 ?1618次閱讀

    中軟國際科創(chuàng)中心上線阿里Qwen3-235B模型

    近日,中軟國際科創(chuàng)中心快速部署阿里Qwen3-235B模型并完成測(cè)試,為客戶提供 AI 項(xiàng)目POC的模型新選擇,助力企業(yè)快速實(shí)現(xiàn)智能化轉(zhuǎn)型,加速國產(chǎn)化通用人工智能(AGI)產(chǎn)業(yè)發(fā)展。
    的頭像 發(fā)表于 05-12 15:40 ?1213次閱讀

    NVIDIA RTX 5880 Ada與Qwen3系列模型實(shí)測(cè)報(bào)告

    近日,阿里巴巴通義千問團(tuán)隊(duì)正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 Dense 稠密模型和 2 MoE 混合
    的頭像 發(fā)表于 05-09 15:05 ?4705次閱讀
    NVIDIA RTX 5880 Ada與<b class='flag-5'>Qwen</b>3系列<b class='flag-5'>模型</b>實(shí)測(cè)報(bào)告

    NVIDIA使用Qwen3系列模型的最佳實(shí)踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩混合專家
    的頭像 發(fā)表于 05-08 11:45 ?3239次閱讀
    NVIDIA使用<b class='flag-5'>Qwen</b>3系列<b class='flag-5'>模型</b>的最佳實(shí)踐

    寒武紀(jì)率先支持Qwen3全系列模型

    近日,阿里Qwen團(tuán)隊(duì)一口氣上新8大模型Qwen3正式發(fā)布并全部開源。
    的頭像 發(fā)表于 05-07 15:51 ?1176次閱讀

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發(fā)布并全部開源8混合推理模型。作為Qwen系列中的最新一代大型語言模型,Qwen
    的頭像 發(fā)表于 05-06 15:17 ?1368次閱讀
    宜川县| 交口县| 历史| 青岛市| 舒兰市| 新昌县| 平舆县| 普洱| 上蔡县| 唐山市| 合阳县| 福州市| 金溪县| 保定市| 辉县市| 大同县| 临沂市| 建水县| 灵宝市| 娱乐| 绍兴市| 萝北县| 法库县| 中牟县| 清新县| 信阳市| 延吉市| 津市市| 潍坊市| 齐齐哈尔市| 三明市| 宣武区| 吴桥县| 台湾省| 娱乐| 奉新县| 丹巴县| 鸡西市| 神农架林区| 奉化市| 津市市|