伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

怎么把 EmbedClaw 從 Qwen 擴到五款國產大模型

啟明云端 ? 2026-04-07 18:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前面幾篇,我已經把 EmbedClaw 的整體架構、上手方式、Tool 擴展講得差不多了。

這一篇我不再重復入門,直接講最近這次更新里最實際的一件事:

66878e40-3269-11f1-ab55-92fbcf53809c.png

這里先把時間線說清楚,避免誤解。

EmbedClaw 最早并不是一開始就支持五家。

最早跑通的,只有 Qwen via DashScope。

直到最近,我才把 DeepSeek / 豆包 / Kimi / 混元 這幾組預設一起補進來。

也就是說:

在最早先把 Qwen 跑通之后,我把多模型切換這件事正式補齊了。

現在,EmbedClaw 可以直接切下面這五家國產模型:

6692056e-3269-11f1-ab55-92fbcf53809c.png

這一篇,我就把這件事一次講清楚:

66a71972-3269-11f1-ab55-92fbcf53809c.png

項目地址:

https://github.com/wireless-tag-com/EmbedClaw


01

為什么這五家我都放進同一條接入鏈路

主要核心是這些都兼容OpenAI的調用方式。

所以你在倉庫里會看到兩件事:

components/embed_claw/llm/ec_llm.c 默認初始化的是 openai provider

components/embed_claw/ec_config_internal.h 里內置了五組模型預設

這意味著,在 EmbedClaw 里切模型,本質上不是重寫 Agent,也不是重寫 Tool。

真正會變的,通常只有三項:

API Key

API URL

Model

這就是我想要的效果。

模型應該是可替換的,而不是把整個工程綁死在某一家平臺上。

02

先說一個最關鍵的點

前面幾篇如果你已經跟著做過,這里我只提醒一句:

真正該改的是 main/ec_config.h,不是組件里的默認配置。

倉庫里的 components/embed_claw/ec_config_internal.h 負責提供默認值,你自己的模型切換和密鑰覆蓋,放到 main/ec_config.h 就夠了。

一個最小模板可以直接寫成這樣:

#defineEC_USE_QWEN 1#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_API_KEY"

這幾個規則先記住,后面就不會配亂:66bb9fc8-3269-11f1-ab55-92fbcf53809c.png

如果你想把地址和模型名也一起寫死,可以這樣寫:

#defineEC_LLM_PROVIDER_NAME "openai"#defineEC_LLM_API_URL "https://your-endpoint/v1/chat/completions"#defineEC_LLM_MODEL "your-model-name"#defineEC_LLM_API_KEY "YOUR_API_KEY"

這也是我一直想要的開發體驗:

切模型,應該是改配置,不應該是拆架構。

03

五款大模型

01

通義千問

千問是 EmbedClaw 最早就有的那條鏈路。

它不只是當前默認模型,也是我最早跑通的默認模型。

當前倉庫里的默認值是:

#defineEC_QWEN_LLM_API_URL "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions"#defineEC_QWEN_LLM_MODEL "qwen-plus"

也就是說,如果你先跑千問,通常只要把 EC_LLM_API_KEY 填進去就夠了。


申請 API Key

打開阿里云 Model Studio API Key文檔

(https://help.aliyun.com/zh/model-studio/get-api-key)

  1. 66cbe784-3269-11f1-ab55-92fbcf53809c.png

按文檔里的入口進入 API-KEY Management

登錄你的阿里云賬號

創建一個新的 API Key

  1. 66da234e-3269-11f1-ab55-92fbcf53809c.png

復制并保存好

  1. 66e96bf6-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 1#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DASHSCOPE_API_KEY"

如果你不額外定義 EC_LLM_API_URL 和 EC_LLM_MODEL,EmbedClaw 就會自動落到這組千問預設。

2

DeepSeek

DeepSeek 也是我在倉庫里直接做成預設的一組。

當前默認值是:

#defineEC_DEEPSEEK_LLM_API_URL "https://api.deepseek.com/v1/chat/completions"#defineEC_DEEPSEEK_LLM_MODEL "deepseek-chat"

切過去很簡單,關掉千問,打開 EC_USE_DEEPSEEK,然后換成你自己的 Key 就行。


申請 API Key

打開DeepSeek首頁(https://deepseek.com/)

選擇API開放平臺

  1. 66f2fae0-3269-11f1-ab55-92fbcf53809c.png

創建 API Key

  1. 670594de-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 1#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DEEPSEEK_API_KEY"

如果你想先確認是不是平臺側問題,我建議先拿一條最小請求把接口測通:

curl https://api.deepseek.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_DEEPSEEK_API_KEY" \ -d '{ "model":"deepseek-chat", "messages": [ { "role":"user","content":"hello" } ] }'

這是我自己調接口時常用的辦法。

先把云端接口確認沒問題,再回頭看設備側日志,排查會快很多。

03

豆包

豆包這條線我想多說一句。

我在倉庫里也給它做了預設,但豆包的實際接入,最好不要只靠默認值去猜。

因為不同區域、不同控制臺入口、不同開通模型,最后拿到的 URL 和 model 可能并不完全一樣。

當前倉庫默認值是:

#defineEC_DOUBAO_LLM_API_URL "https://ark.cn-beijing.volces.com/api/v3/chat/completions"#defineEC_DOUBAO_LLM_MODEL "doubao-seed-2-0-pro-260215"

但如果你控制臺里已經給了明確的地址和模型名,我還是建議你直接覆蓋掉。


申請 API Key

打開豆包API

點擊開啟AI新體驗

  1. 67193bc4-3269-11f1-ab55-92fbcf53809c.png

點擊 API 接入

  1. 672bf05c-3269-11f1-ab55-92fbcf53809c.png

點擊創建

  1. 67390d0a-3269-11f1-ab55-92fbcf53809c.png

完成認證

  1. 674b7472-3269-11f1-ab55-92fbcf53809c.png

開通模型后復制 URL、model 和 API Key

  1. 6758ac78-3269-11f1-ab55-92fbcf53809c.png


推薦配置

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 1#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DOUBAO_API_KEY"#defineEC_LLM_API_URL "控制臺給你的 URL"#defineEC_LLM_MODEL "控制臺給你的 model"

這條線我更推薦你按控制臺實際值來配,而不是完全依賴倉庫默認值。

這樣最穩。

04

Kimi

Kimi 這邊的接入也已經內置好了。

當前默認值是:

#defineEC_KIMI_LLM_API_URL "https://api.moonshot.cn/v1/chat/completions"#defineEC_KIMI_LLM_MODEL "kimi-k2.5"

這條線的思路和前面一樣,切換成本非常低。


申請 API Key

打開Kimi開放平臺

點擊開始構造

  1. 676bf256-3269-11f1-ab55-92fbcf53809c.png

選擇API Key管理,并創建 API Key

  1. 677f6016-3269-11f1-ab55-92fbcf53809c.png

輸入 API 名稱,選擇 default 項目

  1. 6793ecb6-3269-11f1-ab55-92fbcf53809c.png

復制 API Key

  1. 67a1587e-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 1#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_KIMI_API_KEY"

如果你后面想換成 Kimi 的其它具體模型,也一樣,顯式覆蓋 EC_LLM_MODEL 就行。

05

騰訊混元

很多人更熟悉“騰訊元寶”這個名字。

但對開發者來說,真正對應的接入能力其實是“騰訊混元”API。

元寶是產品,混元是底層模型。

當前倉庫默認值是:

#defineEC_HUNYUAN_LLM_API_URL "https://api.hunyuan.cloud.tencent.com/v1/chat/completions"#defineEC_HUNYUAN_LLM_MODEL "hunyuan-turbos-latest"


申請 API Key

打開騰訊混元大模型

創建API key

  1. 67b4e8c6-3269-11f1-ab55-92fbcf53809c.png

點擊查看,然后復制 API Key 即可

  1. 67be611c-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 1#defineEC_LLM_API_KEY "YOUR_HUNYUAN_API_KEY"

如果騰訊云控制臺給了你明確模型名,那就把 EC_LLM_MODEL 一起寫上,不用依賴默認值。

04

最后給一份通用模板

如果你只是想先把其中一家跑起來,那下面這份 main/ec_config.h 模板可以直接改:

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 1#defineEC_LLM_PROVIDER_NAME "openai"#defineEC_LLM_API_KEY "YOUR_API_KEY"/* 平臺如果給了明確 URL 和 model,建議直接寫 *//* #define EC_LLM_API_URL "https://your-endpoint/v1/chat/completions" *//* #define EC_LLM_MODEL "your-model-name" *//* 可選 *//* #define EC_SECRET_SEARCH_KEY "YOUR_TAVILY_API_KEY" *//* #define EC_SECRET_FEISHU_APP_ID "YOUR_FEISHU_APP_ID" *//* #define EC_SECRET_FEISHU_APP_SECRET "YOUR_FEISHU_APP_SECRET" */

你把其中一家打開,把 Key 填進去,基本就能開始測。

05

寫在最后

這次之所以能比較快地把這五家補進來,一個很現實的原因就是:

它們本身都能走 OpenAI-Compatible 這條調用鏈路。

如果你手上還有自己常用、也支持 OpenAI-Compatible 調用的大模型,歡迎繼續往里加。

希望大家可以多多的參與進來,改造EmbedClaw。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    40643

    瀏覽量

    302303
  • 大模型
    +關注

    關注

    2

    文章

    3719

    瀏覽量

    5250
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    一句話讓大模型控制硬件:手把手教你給 EmbedClaw 添加自己的 Tool!

    很多人第一次看到EmbedClaw會有一種錯覺:然而事實是:不能直接操作,但可以通過Tool去操作。這也是EmbedClaw很有意思的一點。它不是模型硬塞進ESP32里當聊天機器人
    的頭像 發表于 04-01 18:32 ?76次閱讀
    一句話讓大<b class='flag-5'>模型</b>控制硬件:手把手教你給 <b class='flag-5'>EmbedClaw</b> 添加自己的 Tool!

    EmbedClaw可以使用QQ進行控制啦!

    EmbedClaw最近更新了一個新的功能:那就是可以對接QQ機器人!那么本期,就讓我們QQ機器人直接接進EmbedClaw,讓ESP32上的AIAgent真正在QQ里“活起來”。更關鍵的是,這條鏈
    的頭像 發表于 03-20 18:06 ?142次閱讀
    <b class='flag-5'>EmbedClaw</b>可以使用QQ進行控制啦!

    沐曦股份曦云C系列GPU全面適配通義千問Qwen3.5三模型

    今日,通義千問團隊正式開源發布Qwen3.5系列中等規模模型,推出包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen
    的頭像 發表于 02-28 10:05 ?627次閱讀
    沐曦股份曦云C系列GPU全面適配通義千問<b class='flag-5'>Qwen</b>3.5三<b class='flag-5'>款</b>新<b class='flag-5'>模型</b>

    摩爾線程MTT S5000全面適配Qwen3.5三模型

    繼開源Qwen3.5-397B-A17B之后,阿里再次宣布開源千問3.5最新三中等規模模型Qwen3.5-35B-A3B、Qwen3.5
    的頭像 發表于 02-26 16:23 ?626次閱讀

    沐曦股份曦云C系列GPU深度適配通義千問Qwen3.5模型

    今天,通義千問今天正式發布 Qwen3.5,并推出Qwen3.5系列的第一模型 Qwen3.5-397B-A17B 的開放權重版本。沐曦股
    的頭像 發表于 02-26 14:26 ?697次閱讀
    沐曦股份曦云C系列GPU深度適配通義千問<b class='flag-5'>Qwen</b>3.5<b class='flag-5'>模型</b>

    成都匯陽投資關于國產開源模型持續突破,國產AI 競爭力增強

    、MiniMax-M2 分別位列全球開源榜單第一 、 第二 ,且榜單前名中國產開源模型占據四席(Qwen3 235BA22B2507 和 DeepSeek V3.2 Exp 分別位列
    的頭像 發表于 11-24 14:01 ?664次閱讀

    阿里通義千問發布小尺寸模型Qwen3-4B,手機也能跑

    電子發燒友網綜合報道 8月7日,阿里通義千問宣布發布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。目前新模型已在魔搭社區
    的頭像 發表于 08-12 17:15 ?6910次閱讀
    阿里通義千問發布小尺寸<b class='flag-5'>模型</b><b class='flag-5'>Qwen</b>3-4B,手機也能跑

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型的訓練適配和優化。由此,壁仞科技已實現Qwen
    的頭像 發表于 05-16 16:23 ?1106次閱讀

    Arm CPU適配通義千問Qwen3系列模型

    與阿里巴巴開源的輕量級深度學習框架 MNN 已深度集成。得益于此,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三模型
    的頭像 發表于 05-12 16:37 ?1552次閱讀

    中軟國際科創中心上線阿里Qwen3-235B模型

    近日,中軟國際科創中心快速部署阿里Qwen3-235B模型并完成測試,為客戶提供 AI 項目POC的模型新選擇,助力企業快速實現智能化轉型,加速國產化通用人工智能(AGI)產業發展。
    的頭像 發表于 05-12 15:40 ?1165次閱讀

    NVIDIA RTX 5880 Ada與Qwen3系列模型實測報告

    近日,阿里巴巴通義千問團隊正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 Dense 稠密模型和 2 MoE 混合
    的頭像 發表于 05-09 15:05 ?4586次閱讀
    NVIDIA RTX 5880 Ada與<b class='flag-5'>Qwen</b>3系列<b class='flag-5'>模型</b>實測報告

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩混合專家
    的頭像 發表于 05-08 11:45 ?3168次閱讀
    NVIDIA使用<b class='flag-5'>Qwen</b>3系列<b class='flag-5'>模型</b>的最佳實踐

    寒武紀率先支持Qwen3全系列模型

    近日,阿里Qwen團隊一口氣上新8大模型,Qwen3正式發布并全部開源。
    的頭像 發表于 05-07 15:51 ?1125次閱讀

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發布并全部開源8混合推理模型。作為Qwen系列中的最新一代大型語言模型,Qwen
    的頭像 發表于 05-06 15:17 ?1279次閱讀

    壁仞科技完成阿里巴巴通義千問Qwen3全系列模型支持

    4月29日,阿里巴巴通義千問發布并開源8新版Qwen3系列“混合推理模型”(簡稱“Qwen3”)。Qwen3發布后數小時內,壁仞科技完成全
    的頭像 發表于 04-30 15:19 ?1681次閱讀