作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力
智譜最近發(fā)布了AutoGLM沉思,一個能夠把一個開放式問題,拆解成一個個具體的小問題,并根據(jù)結(jié)果執(zhí)行操作的自主智能體(AI Agent),它能夠模擬人類的思維過程,完成從數(shù)據(jù)檢索、分析到生成報告,大大節(jié)約了粗顆粒度調(diào)研到報告生成的過程!例如,給AutoGLM沉思輸入提示詞:“撰寫一篇專業(yè)的IDP(Intelligent Document Processing)深度行業(yè)調(diào)研報告”,AutoGLM會查閱幾十個網(wǎng)站的信息,然后匯總成一篇專業(yè)的報告。

本文從零開始介紹使用DeepSeek和MCP快速實現(xiàn)一個跟AutoGLM沉思一樣的AI Agent,全自動實現(xiàn)從數(shù)據(jù)檢索、分析到生成報告的完整工作流。
一,DeepSeek-V3-0324是調(diào)用MCP的優(yōu)秀模型
2025年3月24日,DeepSeek發(fā)布了大語言模型DeepSeek-V3-0324,其在評估代碼生成性能的基準測試平臺(LiveCodeBench)中首次通過所有測試用例(Pass@1)的比例為49.2%,如下圖所示,超過GPT-4.5(44.4%)和Claude-3.7-Sonnet(42.2%),被評價為“目前編程能力最強的非推理開源模型之一”。

值得一提的是:DeepSeek-V3-0324模型不僅編程能力強,而且對MCP支持非常好,更重要的是性價比極高!DeepSeek + MCP非常適合打造日常使用的生產(chǎn)力工具。

數(shù)據(jù)來源: https://docsbot.ai/models/compare/gpt-4-5/deepseek-v3
二,為什么DeepSeek要調(diào)用MCP?
既然DeepSeek-V3-0324能力這么強了,為什么還要讓DeepSeek調(diào)用MCP?在《MCP:連接AI與應(yīng)用程序的開放標準!》文中介紹了AI大模型發(fā)展兩條路徑:
1. 讓模型掌握更多信息:搜索、RAG、多模態(tài)等技術(shù),都是讓模型掌握更多信息;
2. 讓模型使用更多工具:Function Call、MCP等技術(shù),都是讓模型使用更多工具。
Model Context Protocol(MCP)就是通過讓DeepSeek調(diào)用更多工具,來增強DeepSeek能力的方法。
MCP通過標準化協(xié)議解決各種應(yīng)用程序(工具)輕松接入AI大模型的問題,讓AI大模型能自動與各種應(yīng)用程序協(xié)作,而無需開發(fā)者手動編寫任何協(xié)作代碼,大大簡化了開發(fā)流程!
另外,DeepSeek + MCP比Dify、Coze等畫布形式,更容易實現(xiàn)AI Agent應(yīng)用(AI Agent = AI大模型 + 工具調(diào)用)。
三,搭建DeepSeek+MCP開發(fā)環(huán)境
構(gòu)建DeepSeek+MCP開發(fā)環(huán)境,非常簡單,只需要三步:
1. 安裝VS Code和Cline插件
2. 在DeepSeek官網(wǎng)購買API Keys
3. 在Cline中填入DeepSeek API Key
請在參考《用MCP將百度地圖能力輕松接入DeepSeek》一文,完成開發(fā)環(huán)境搭建,并體驗讓DeepSeek通過MCP調(diào)用百度地圖能力。
四,添加Sequential-Thinking MCP Server
Sequential Thinking MCP Server? 是基于 MCP(Model Context Protocol)協(xié)議開發(fā)的?結(jié)構(gòu)化問題處理工具?,專為復(fù)雜任務(wù)的分步推理和動態(tài)調(diào)整設(shè)計。其核心是通過標準化接口連接 AI 模型與外部工具/數(shù)據(jù),實現(xiàn)可控的逐步式問題解決流程。
跟AI 大模型單次生成相比,AI大模型 + Sequential Thinking MCP Server 通過?步驟化控制+工具調(diào)用?,使任務(wù)執(zhí)行準確率提升約 35%。
到https://mcp.so/server/sequentialthinking,把 Sequential Thinking MCP Server在Cline下的配置語句拷貝Cline的cline_mcp_settings.json文件,保存后顯示綠燈,說明配置成功!

五,添加Tavily MCP Server
Tavily MCP Server? 是基于 MCP(Model Context Protocol)協(xié)議開發(fā)的?智能搜索服務(wù)工具?,旨在通過標準化接口將 Tavily 搜索引擎與 AI大模型(如 DeepSeek-V3等)深度集成,實現(xiàn)?安全、動態(tài)的實時數(shù)據(jù)交互。
Tavily MCP Server 正在成為 AI 大模型的“數(shù)據(jù)外接大腦”,推動從封閉式問答向開放式智能服務(wù)的轉(zhuǎn)型?。
首先,請到https://app.tavily.com/home,完成注冊并獲得API Key。

然后,請到https://github.com/tavily-ai/tavily-mcp,把 Tavily MCP Server在Cline下的配置語句拷貝Cline的cline_mcp_settings.json文件,保存后顯示綠燈,說明配置成功!

六,用DeepSeek+MCP編寫行研報告
配置好后,輸入提示詞:“撰寫一篇專業(yè)的IDP(Intelligent Document Processing)深度行業(yè)調(diào)研報告”,DeepSeek + MCP會像AutoGLM沉思一樣查閱幾十個網(wǎng)站的信息,然后匯總成一篇專業(yè)的報告。
請看關(guān)聯(lián)視頻
整個過程的Token消耗,僅人民幣0.67元。
七,總結(jié)
公司中的非技術(shù)人員應(yīng)該掌握DeepSeek+MCP工具,通過對話的方式,構(gòu)建自己的AI智能體工作流,減少重復(fù)性手動操作,提高工作效率!
如果你有更好的文章,歡迎投稿!
稿件接收郵箱:nami.liu@pasuntech.com
更多精彩內(nèi)容請關(guān)注“算力魔方?”!
審核編輯 黃宇
-
MCP
+關(guān)注
關(guān)注
0文章
289瀏覽量
15007 -
DeepSeek
+關(guān)注
關(guān)注
2文章
835瀏覽量
3255
發(fā)布評論請先 登錄
本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實現(xiàn)遠程訪問
【HZ-T536開發(fā)板免費體驗】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語言輕松控板
【「DeepSeek 核心技術(shù)揭秘」閱讀體驗】+混合專家
【「DeepSeek 核心技術(shù)揭秘」閱讀體驗】--全書概覽
【「DeepSeek 核心技術(shù)揭秘」閱讀體驗】書籍介紹+第一章讀后心得
信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代
【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘
如何用FastMCP快速開發(fā)自己的MCP Server?
接入DeepSeek后智慧場館的能力提升
用MCP將百度地圖能力輕松接入DeepSeek
【幸狐Omni3576邊緣計算套件試用體驗】DeepSeek 部署及測試
DeepSeek-R1:別被它的光環(huán)迷了眼,這些能力局限你得知道!
如何用DeepSeek+MCP實現(xiàn)AutoGLM沉思的能力?
評論