DeepSeek本地部署教程,0基礎DeepSeek本地部署攻略!

AI教程 2025-04-29

DeepSeek R1全球爆火,不需要專業的prompt撰寫能力,只要能說清楚問題,就算你是只會打字的小學生,也能獲得高質量的回答。開發成本、輸出質量全面領先OpenAI o1。

DeepSeek-R1

美中不足的是,它訪問量太大了,以至于經常罷工。

很多人就開始用其他接入了R1的平臺。有人就要問了,博主博主,其他接入R1的平臺確實很強,但還是太吃Token了,有沒有免費、又簡單的方法用到DeepSeek R1呢?

有的兄弟,有的。

直接在電腦上本地部署R1,就可以!無需聯網、不用擔心數據泄露、完全免費,還可以搭建個人知識庫,訓練你的專屬AI助理。

01

部署流程

 

本地部署只需要三步:

  • 安裝Ollama

  • 下載DeepSeek-R1大模型

  • 使用Cherry Studio調用模型

Ollama的模型庫里的40多種開源模型,比如阿里云通義千問推出的大模型Qwen2.5,Meta公司最新的大模型Llama 3.3等等,都可以通過這套流程來本地部署。

操作簡單,0基礎有手就會,而且完全免費!

接下來我們一步一步還原一下本地部署DeepSeek-R1大模型的全過程。

02

安裝Ollama

Ollama是一個在本地計算機上運行大模型的命令行工具,有了它,你就可以在本地跑大模型。

進入Ollama官網登錄,點擊Download。

 

 

我用的是Windows系統,所以直接選擇Windows的版本下載。

下載完點擊安裝,會默認安裝在C盤,Windows版本不支持修改安裝位置,所以我們無腦點“下一步”就行啦!

注意,安裝完成后右下角會彈出提示框,點擊“確認”,點擊即可彈出窗口。

Ollama就安裝成功啦。

03

部署DeepSeek R1模型

我們回到Ollama官網,點擊左上角的“Models”進入模型庫,點擊DeepSeek-R1大模型。

Ollama提供7種不同參數的模型可供下載。

R1的模型參數是671B,差不多需要1300個G的顯存,你才能跑得動滿血版R1。

1.5B到70B是R1的蒸餾版,模型能力雖然不如滿血版(參數數字越大能力越強),但是對硬件要求更低,在同規模的開源模型里表現也是很突出的,適合個人或企業本地部署。

我總結了一份DeepSeek-R1每個版本的配置要求的表格,大家可以對照選擇:

這里我選擇1.5B的模型,復制后面口令:ollama run deepseek-r1:1.5b

把口令粘貼進Ollama彈出的窗口中,按回車,就會開始下載模型。

靜靜等待進度條到100%,最后提示“success”,就說明下載完成了。

我們在命令行輸入ollama run deepseek-r1:1.5b+問題,就能直接與AI對話。

但是這個界面看著太簡陋了,而且每次提問都要復制一行命令,也不太方便。

接下來我們通過客戶端來優化這個問題。

04

通過Cherry Studio調用模型

Cherry Studio是一款開源的多模型桌面客戶端。它可以直接調用主流的大模型,比如OpenAI、Gemini,和本地模型。

像這樣開源、好用的客戶端還有Chatbox AI、AnythingLLM等等。

官方也整理過一份實用集成文件,可以幫我們更好地應用DeepSeek。

這里我們以Cherry Studio為例,一起操作一下。

進入Cherry Studio官網的下載界面,可以點擊立即下載,或者從網盤鏈接下載。

安裝步驟也是直接點下一步即可。

安裝后點擊左下角的設置。

在模型服務里選擇Ollama,點亮右上角的啟用,API密鑰會自動填寫,然后點擊管理。

可以看到本地已經安裝好的DeepSeek-R1模型,點擊右邊的+號。

我們返回到首頁,點擊頁面上方顯示的模型名稱。

點擊選擇我們本地部署的DeepSeek-R1:1.5B。

就可以跟AI正常對話啦。

1.5B的模型泛用性不是太強,適合做一些簡單的問答,如果想要將本地部署的R1應用在工作中,推薦7B或者更高參數的版本。

本地部署DeepSeek,有響應及時、免費、個性化程度高的優勢,但是對配置有一定的要求,有合適的設備可以試試。

學會這個步驟,你可以在本地部署任意一款開源的大模型,快去試試吧!

本文轉載自互聯網,如有侵權,聯系郵箱:478266466@qq.com 刪除