在當(dāng)下的科技領(lǐng)域,DeepSeek 無疑是一顆耀眼的明星,近期關(guān)于它的話題熱度持續(xù)飆升,引發(fā)了無數(shù)技術(shù)愛好者和行業(yè)從業(yè)者的熱烈討論。大家紛紛被其強大的大數(shù)據(jù)處理能力和廣泛的應(yīng)用前景所吸引,急切地想要深入探索和使用這一先進(jìn)的模型。然而,當(dāng)人們滿懷期待地訪問 DeepSeek 官網(wǎng)時,卻遭遇了令人頭疼的問題 —— 官網(wǎng)響應(yīng)極其緩慢,常常讓等待的時間變得漫長而煎熬,嚴(yán)重影響了大家獲取信息和使用服務(wù)的效率。
不過,現(xiàn)在有一個絕佳的解決方案擺在我們面前。今天,就讓我們一同深入學(xué)習(xí)如何巧妙利用京東云電腦,快速部署一個功能強大的私人 DeepSeek 大數(shù)據(jù)模型。這個模型不僅無使用限制,還能自由聯(lián)網(wǎng),更可自定義自己的專屬知識庫,能夠滿足你多樣化的使用需求,為你帶來前所未有的便捷體驗。
為什么要部署私人大數(shù)據(jù)模型?
或許你會心生疑惑,既然有眾多便捷的云端 AI 服務(wù)可供選擇,為何還要大費周章地進(jìn)行私人部署呢?實際上,本地部署私人 DeepSeek 大數(shù)據(jù)模型有著諸多不可替代的獨特優(yōu)勢。
1.免費使用,降低成本:在當(dāng)今的 AI 服務(wù)領(lǐng)域,許多云端服務(wù)都需要按使用量付費,對于頻繁使用 AI 模型的用戶來說,這無疑會帶來一筆不菲的開支。而本地部署,一旦完成初始的環(huán)境搭建與模型下載,便無需再支付額外的使用費用,就像擁有了一臺專屬的 AI 超級助手,隨時待命,卻不會產(chǎn)生任何后續(xù)的經(jīng)濟(jì)負(fù)擔(dān)。
2.數(shù)據(jù)隱私保護(hù):當(dāng)我們使用云端 AI 服務(wù)時,數(shù)據(jù)會被上傳至第三方服務(wù)器,這意味著我們的隱私數(shù)據(jù)可能面臨泄露的風(fēng)險。而本地部署將數(shù)據(jù)完全存儲在本地,就如同將珍貴的寶藏鎖在自己的保險柜里,只有自己擁有鑰匙,極大地保障了數(shù)據(jù)的安全性和隱私性,讓我們可以毫無顧慮地處理敏感信息。
3.無網(wǎng)絡(luò)依賴,隨時隨地使用:云端服務(wù)對網(wǎng)絡(luò)的依賴性極高,一旦網(wǎng)絡(luò)出現(xiàn)波動或中斷,服務(wù)便無法正常使用。而本地部署的 AI 模型則擺脫了這種束縛,無論身處網(wǎng)絡(luò)信號良好的繁華都市,還是網(wǎng)絡(luò)覆蓋薄弱的偏遠(yuǎn)地區(qū),只要設(shè)備正常運行,就能隨時隨地調(diào)用模型,享受高效穩(wěn)定的 AI 服務(wù),就像擁有了一個隨叫隨到的私人智能秘書。
4.靈活定制,滿足個性化需求:不同的用戶在使用 AI 模型時,往往有著不同的需求和偏好。本地部署賦予了我們充分的自主控制權(quán),我們可以根據(jù)自己的實際需求,自由調(diào)整模型的參數(shù)和配置,添加個性化的功能,打造專屬于自己的獨一無二的 AI 模型,使其更貼合我們的工作和生活場景。
5.性能與效率優(yōu)勢:本地部署能夠充分利用本地設(shè)備的硬件資源,避免了云端服務(wù)中可能出現(xiàn)的網(wǎng)絡(luò)延遲和資源競爭問題,從而實現(xiàn)更快的響應(yīng)速度和更高的運行效率。在處理復(fù)雜任務(wù)時,本地部署的模型能夠迅速給出結(jié)果,大大提升了工作效率,讓我們在與時間賽跑的競爭中搶占先機。
6.無額外限制:一些云端 AI 服務(wù)可能會對使用時長、請求次數(shù)、生成內(nèi)容等設(shè)置限制,這在一定程度上束縛了我們的使用體驗。而本地部署的模型則沒有這些限制,我們可以盡情發(fā)揮創(chuàng)意,自由探索 AI 的無限可能,充分滿足我們對技術(shù)的好奇心和探索欲。
DeepSeek 各版本示意
在深入探討部署過程之前,我們先來了解一下 DeepSeek 模型的不同版本及其特點,這將有助于我們更好地選擇適合本地部署的模型。DeepSeek 模型主要有滿血版和蒸餾版兩個版本,它們在多個方面存在明顯差異。
?滿血版指的是 DeepSeek 的完整版本,通常具有非常大的參數(shù)量。例如,DeepSeek-R1 的滿血版擁有 6710 億個參數(shù)。這種版本的模型性能非常強大,但對硬件資源的要求極高,通常需要專業(yè)的服務(wù)器支持。例如,部署滿血版的 DeepSeek-R1 至少需要 1T 內(nèi)存和雙 H100 80G 的推理服務(wù)器。
?蒸餾版本是通過知識蒸餾技術(shù)從滿血版模型中提取關(guān)鍵知識并轉(zhuǎn)移到更小的模型中,從而在保持較高性能的同時,顯著降低計算資源需求。蒸餾版本的參數(shù)量從 1.5B 到 70B 不等,比如以下幾種變體:
?DeepSeek-R1-Distill-Qwen-1.5B
?DeepSeek-R1-Distill-Qwen-7B
?DeepSeek-R1-Distill-Qwen-14B
?DeepSeek-R1-Distill-Qwen-32B
?DeepSeek-R1-Distill-Llama-8B
?DeepSeek-R1-Distill-Llama-70B
DeepSeek-R1 是主模型的名字;Distill 的中文含義是 “蒸餾”,代表這是一個蒸餾后的版本;而后面跟的名字是從哪個模型蒸餾來的版本,例如 DeepSeek-R1-Distill-Qwen-32B 代表是基于千問(Qwen)蒸餾而來;最后的參數(shù)量(如 671B、32B、1.5B):表示模型中可訓(xùn)練參數(shù)的數(shù)量( “B” 代表 “Billion” ,即十億。因此,671B、32B、1.5B 分別表示模型的參數(shù)量為 6710億、320億和15億。),參數(shù)量越大,模型的表達(dá)能力和復(fù)雜度越高,但對硬件資源的需求也越高。
1.對于本地部署而言,蒸餾版是更為合適的選擇。一方面,它對硬件的要求相對較低,不需要昂貴的多 GPU 服務(wù)器,普通用戶使用配備合適顯卡的電腦即可完成部署,降低了硬件成本和技術(shù)門檻。另一方面,雖然蒸餾版在性能上相較于滿血版有所降低,但在很多實際應(yīng)用場景中,其性能表現(xiàn)依然能夠滿足需求,性價比極高。
購買和登錄云電腦
訪問京東云官網(wǎng)(https://www.jdcloud.com/),使用京東APP掃碼進(jìn)入管理控制臺,購買云電腦。
當(dāng)前官網(wǎng)有試用活動,可以在首頁進(jìn)入試用中心(https://www.jdcloud.com/cn/pages/free_center),找到4核8G云電腦9.9元7天使用活動,下單。

下單完成后,按照指導(dǎo)登錄云電腦。
搭建 Ollama 服務(wù)
在本地部署 DeepSeek 大數(shù)據(jù)模型的過程中,Ollama 扮演著至關(guān)重要的角色,它是一個開源的 LLM(Large Language Model,大型語言模型)服務(wù)工具,就像是一位貼心的助手,專門用于簡化和降低大語言模型在本地的部署和使用門檻 ,讓我們能夠更加輕松地在本地環(huán)境部署和管理 LLM 運行環(huán)境,快速搭建起屬于自己的 AI 模型服務(wù)。
接下來,我們將以在 Windows Server 2016 系統(tǒng)環(huán)境中部署 Ollama 為例,詳細(xì)介紹其安裝和部署步驟。
首先,我們需要下載 Ollama 的安裝文件。

?
Ollama 官方為 Windows、Linux 以及 MacOS 等多種主流系統(tǒng)都提供了對應(yīng)的安裝文件,我們可以直接從 Ollama 官網(wǎng)的下載頁面(https://ollama.com/download )獲取。在下載頁面中,找到 Windows 系統(tǒng)對應(yīng)的安裝包,點擊 “Download for Windows ” 進(jìn)行下載。

下載完成后,我們只需一路點擊 “install” 進(jìn)行安裝即可。安裝過程就像安裝普通的軟件一樣簡單,按照安裝向?qū)У奶崾局鸩讲僮?,很快就能完成安裝。
安裝完成之后,我們需要驗證 Ollama 是否安裝成功。首先檢查任務(wù)欄中是否有Ollama的圖標(biāo)。

然后打開一個 cmd 命令窗口,輸入 “ollama” 命令,如果顯示 ollama 相關(guān)的信息,那就證明安裝已經(jīng)成功了。這就好比我們安裝完一款游戲后,打開游戲能夠正常顯示游戲界面,就說明游戲安裝成功了一樣。

為了讓 Ollama 在系統(tǒng)啟動時自動運行,我們還需要將其添加為啟動服務(wù)。在 Windows 系統(tǒng)中,我們可以通過以下步驟來實現(xiàn):
1.打開 “服務(wù)” 窗口。我們可以通過在 “運行” 對話框中輸入 “services.msc” 并回車來快速打開。
2.在 “服務(wù)” 窗口中,找到 “Ollama” 服務(wù)(如果沒有找到,可以先在 cmd 命令窗口中輸入 “ollama serve” 啟動 Ollama 服務(wù))。
3.右鍵點擊 “Ollama” 服務(wù),選擇 “屬性”。
4.在 “屬性” 窗口中,將 “啟動類型” 設(shè)置為 “自動”,然后點擊 “確定” 保存設(shè)置。
這樣,當(dāng)我們的系統(tǒng)下次啟動時,Ollama 服務(wù)就會自動啟動,隨時準(zhǔn)備為我們提供服務(wù),就像我們設(shè)置了鬧鐘,每天早上鬧鐘會自動響起,提醒我們新的一天開始了一樣。
運行 DeepSeek 模型
當(dāng) Ollama 服務(wù)成功搭建并順利啟動后,我們就可以著手使用它來運行 DeepSeek 模型了。打開模型的官網(wǎng)地址:https://ollama.com/library/deepseek-r1。

這里我們選擇1.5b的模型,復(fù)制后面的內(nèi)容。

各模型版本說明
| 模型版本 | 所需空余空間 | 部署命令 | 配置說明 |
| 1.5b | 1.1GB | ollama run deepseek-r1:1.5b | 適用于內(nèi)存為4G的電腦,參數(shù)規(guī)模較小,適合輕量級任務(wù)。 |
| 7b | 4.7GB | ollama run deepseek-r1:7b | 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模適中,適合中等復(fù)雜度的任務(wù)。 |
| 8b | 4.9GB | ollama run deepseek-r1:8b | 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模適中,適合中等復(fù)雜度的任務(wù)。 |
| 14b | 9GB | ollama run deepseek-r1:14b | 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模較大,適合較高復(fù)雜度的任務(wù)。 |
| 32b | 20GB | ollama run deepseek-r1:32b | 適用于內(nèi)存較大的電腦,參數(shù)規(guī)模大,適合高復(fù)雜度任務(wù)和高準(zhǔn)確性要求。 |
| 70b | 43GB | ollama run deepseek-r1:70b | 適用于內(nèi)存較大的電腦,參數(shù)規(guī)模極大,適合極高復(fù)雜度任務(wù)和高準(zhǔn)確性要求。 |
| 671b | 404GB | ollama run deepseek-r1:671b | 基礎(chǔ)大模型,參數(shù)數(shù)量最多,模型容量極大,適合處理海量知識和復(fù)雜語言模式的任務(wù)。 |
?
在命令行中,我們輸入 “ollama run deepseek-r1: 版本號”,由于我們上面復(fù)制了,直接鼠標(biāo)右鍵就可以粘貼成功。

回車后,開始下載

耐心等待后,見如下提示success表示下載成功。

可以問他一些問題,如下:

?
圖形客戶端配置本地知識庫
利用 CherryStudio 搭建知識寶庫
Cherry Studio 是一款強大的聚合主流大語言模型服務(wù)的桌面工具,為我們搭建本地知識庫提供了便捷的途徑,宛如一位貼心的知識管家,幫助我們高效地管理和利用知識。
1.下載與安裝:打開 Cherry 官網(wǎng)(https://cherry-ai.com/download ),根據(jù)自己的操作系統(tǒng)選擇適配的版本進(jìn)行下載。下載完成后,按照默認(rèn)設(shè)置進(jìn)行安裝即可。
2.選擇 DeepSeek R1 模型:啟動 Cherry Studio 后,首先需要配置模型服務(wù)。我們把在硅基流動中申請的 API 密鑰添加進(jìn)去,這就像是給模型服務(wù)配了一把鑰匙,讓它能夠順利開啟。如果還沒有申請過密鑰,可以在 API 秘鑰下方點擊 “這里獲取密鑰”,進(jìn)入硅基流動官網(wǎng),點擊創(chuàng)建 API 密鑰即可。完成密鑰添加后,在下方添加 DeepSeek R1 模型,具體路徑為 deepseek-ai/DeepSeek-R1 ,也可以點擊下方管理按鈕找到 DeepSeek 模型直接添加。添加完成后,點擊檢查按鈕進(jìn)行測試,當(dāng)看到檢查按鈕變成綠色對鉤,就表示測試通過,我們已經(jīng)成功與 DeepSeek R1 模型建立了聯(lián)系。
3.搭建本地知識庫:點擊管理按鈕,選擇嵌入模型,這里我們可以把常用的幾個嵌入模型都添加進(jìn)去,為后續(xù)的知識處理做好準(zhǔn)備。確認(rèn)添加后,就能看到之前添加的嵌入式模型了。接著,點擊左側(cè)知識庫按鈕,添加本地文檔。在彈出的窗口中,填寫知識庫名稱,選擇合適的嵌入模型,然后上傳本地文件。Cherry Studio 支持多種類型的知識上傳,包括文件、目錄、網(wǎng)址、筆記等等,非常方便。比如我們上傳了一個《三體》全集,當(dāng)出現(xiàn)對鉤時,就表示文件處理完成,已經(jīng)成功加入到我們的知識庫中了。
4.使用知識庫:在聊天窗口選擇知識庫圖標(biāo),選中之前創(chuàng)建的知識庫,如我們創(chuàng)建的 “test” 知識庫。現(xiàn)在,就可以在聊天區(qū)域詢問有關(guān)知識庫的問題了。比如我們詢問 “《三體》中三體人的科技特點是什么?”,DeepSeek R1 模型就會結(jié)合知識庫中的《三體》內(nèi)容,給出準(zhǔn)確而詳細(xì)的回答,讓我們輕松獲取所需的知識。
Page Assist 實現(xiàn)本地模型聯(lián)網(wǎng)
Page Assist 是一款開源瀏覽器擴(kuò)展程序,它就像是一座橋梁,為本地 AI 模型與網(wǎng)絡(luò)之間搭建起了溝通的渠道,讓我們的本地 DeepSeek 模型能夠?qū)崿F(xiàn)聯(lián)網(wǎng)搜索,獲取更廣泛的信息。
1.安裝 Page Assist 插件:打開我們常用的瀏覽器(建議使用 Chrome 或 Edge),在瀏覽器的擴(kuò)展商店中搜索 “Page Assist”,找到對應(yīng)的插件后點擊安裝。安裝完成后,插件會在瀏覽器的插件欄中顯示。
2.配置 Page Assist:安裝完成后,在瀏覽器的插件列表中點擊打開 Page Assist。在 Page Assist 的 Web UI 界面中,首先選擇剛剛下載的 DeepSeek 模型,確保模型與插件正確連接。接著,在 “RAG 設(shè)置” 中,確保選擇了深度求索模型,為聯(lián)網(wǎng)搜索做好準(zhǔn)備。
3.使用聯(lián)網(wǎng)功能:回到主界面,此時界面已經(jīng)是中文版,使用起來更加方便。點擊 “Page Assist” 插件,點擊上方的下拉菜單,選擇已經(jīng)安裝的模型。然后將聊天框的聯(lián)網(wǎng)按鈕開關(guān)打開,就可以進(jìn)行聯(lián)網(wǎng)搜索了。比如我們詢問 “最近的科技新聞有哪些?”,模型就會通過聯(lián)網(wǎng)獲取最新的科技資訊,并給出回答,讓我們及時了解行業(yè)動態(tài)。為了更好地利用知識,我們還可以添加嵌入模型,通過 “ollama pull nomic-embed-text” 命令下載嵌入模型,然后在插件里 RAG 設(shè)置中選擇嵌入模型。具體操作是點擊右上角齒輪【設(shè)置】——》【RAG 設(shè)置】——》選擇文本嵌入模型 ——》點擊【保存】按鈕即可。這樣,模型在處理問題時能夠更好地理解文本的語義和關(guān)聯(lián),提供更準(zhǔn)確的回答。
Anything LLM 打通本地知識庫以及聯(lián)網(wǎng)設(shè)置
Anything LLM 專注于文檔知識庫與問答場景,自帶向量檢索管理,就像是一個智能的知識搜索引擎,能夠?qū)崿F(xiàn)多文檔整合,為我們打造一個強大的本地知識庫問答系統(tǒng),同時它也支持聯(lián)網(wǎng)設(shè)置,讓知識獲取更加全面。
1.下載與安裝:打開 Anything LLM 的官網(wǎng)(https://anythingllm.com/desktop ),根據(jù)自己的系統(tǒng)選擇下載對應(yīng)的版本。下載完成后,按照默認(rèn)路徑安裝或者根據(jù)自己的需求修改安裝路徑都可以。安裝完成后,點擊完成按鈕,會自動跳轉(zhuǎn)到 Anything LLM 界面。
2.配置模型:在 Anything LLM 界面中,首先選擇 Ollama 作為模型管理器,因為我們之前已經(jīng)通過 Ollama 運行了 DeepSeek 模型,這樣可以實現(xiàn)兩者的無縫對接。Anything LLM 會自動檢測本地部署的模型,前提是確保 Ollama 本地部署的模型正常運行。在模型配置中,“LLM Selection(大語言模型選擇)” 選擇名為 Ollama 的模型,這意味著我們的模型和聊天記錄僅在運行 Ollama 模型的機器上可訪問,保障了數(shù)據(jù)的安全性和隱私性;“Embedding Preference(嵌入偏好)” 使用名為 AnythingLLM Embedder 的嵌入工具,說明文檔文本是在 Anything LLM 的實例上私密嵌入的,不會泄露給第三方;“Vector Database(向量數(shù)據(jù)庫)” 使用 LanceDB 作為向量數(shù)據(jù)庫,保證向量和文檔文本都存儲在這個 Anything LLM 實例上,進(jìn)一步強調(diào)了數(shù)據(jù)的私密性。
3.搭建本地知識庫:在左側(cè)工作區(qū)找到上傳按鈕,點擊上傳按鈕后,可以選擇上傳本地文件或者鏈接。比如我們上傳了一個包含公司項目資料的文件,選中上傳的文件,點擊 “Move to Workspace”,然后點擊 “Save and Embed”,系統(tǒng)會對文檔進(jìn)行切分和詞向量化處理,將文檔轉(zhuǎn)化為模型能夠理解和處理的格式。完成后,點擊圖釘按鈕,將這篇文檔設(shè)置為當(dāng)前對話的背景文檔,這樣在提問時,模型就會優(yōu)先參考這篇文檔的內(nèi)容。
4.深度調(diào)整:為了讓模型更好地回答問題,我們可以進(jìn)行一些深度調(diào)整。點開設(shè)置,將聊天模式改成查詢模式,這樣 AI 會更基于它查詢出來的數(shù)據(jù)進(jìn)行回答;將向量數(shù)據(jù)庫的最大上下文片段改成 6,意味著每次查詢時,模型會去數(shù)據(jù)庫里取出 6 個和問題相關(guān)的片段,以便更全面地理解問題;將文檔相似性閾值改成中,用來控制查詢到的數(shù)據(jù)和問題相關(guān)程度的閾值,確保獲取到的信息與問題高度相關(guān)。
5.聯(lián)網(wǎng)設(shè)置:雖然 Anything LLM 主要用于本地知識庫的搭建,但它也支持聯(lián)網(wǎng)設(shè)置。在一些高級設(shè)置中,我們可以配置網(wǎng)絡(luò)訪問權(quán)限,讓模型在需要時能夠聯(lián)網(wǎng)獲取更廣泛的信息。比如當(dāng)本地知識庫中沒有相關(guān)信息時,模型可以通過聯(lián)網(wǎng)搜索來補充知識,提供更準(zhǔn)確的回答。不過在使用聯(lián)網(wǎng)功能時,需要注意網(wǎng)絡(luò)安全和隱私保護(hù),確保數(shù)據(jù)的安全傳輸。
審核編輯 黃宇
-
模型
+關(guān)注
關(guān)注
1文章
3752瀏覽量
52109 -
大數(shù)據(jù)
+關(guān)注
關(guān)注
64文章
9063瀏覽量
143753 -
DeepSeek
+關(guān)注
關(guān)注
2文章
835瀏覽量
3265
發(fā)布評論請先 登錄
開發(fā)知識庫測試添加知識庫
鴻蒙智能體開發(fā)知識庫---創(chuàng)建知識庫
DeepSeek模型如何在云服務(wù)器上部署?
本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實現(xiàn)遠(yuǎn)程訪問
零基礎(chǔ)在智能硬件上克隆原神可莉?qū)崿F(xiàn)桌面陪伴(提供人設(shè)提示詞、知識庫、固件下載)
速看!EASY-EAI教你離線部署Deepseek R1大模型
信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代
MaaS X Cherry Studio:基于DeepSeek API快速構(gòu)建個人AI智能助手
云電腦:快速部署無限制、可聯(lián)網(wǎng)、帶專屬知識庫的私人 DeepSeek 大數(shù)據(jù)模型
評論