DeepSeek沒反應?那就在本地部署更好用 Mac和PC都能可視化 原創
最近大火的國產AI大模型Deepseek大家應該都不陌生。除了在手機上安裝APP或通過官網在線體驗,其實我們完全可以在Windows電腦上進行本地部署,從而帶來更加便捷的使用體驗。 本地部署AI模型有很多好處,比如:隱私安全——所有數據都保存在本地,不用擔心泄露敏感信息;響應速度快——官方或第三方服務由于訪問量大,常常會導致卡頓,而本地部署能避免這種延遲問題。否則,突然火得一塌糊涂,誰也扛不住,經常發個提問:
得益于其開源模型,解決辦法很簡單,那就是把 DeekSeek 部署在本地設備,這樣以來即便斷網也能使用。要在本地部署DeepSeek R1大模型并不難,只需安裝開源工具Ollama,它可以支持各種AI模型的運行。如果覺得在終端里與AI交互不夠直觀或美觀,還可以再安裝一個圖形化界面,就能像與ChatGPT一樣,在網頁上與大模型對話了。
本地化部署所需軟件
Ollama
Ollama是一個開源軟件,主要用于在本地電腦設備上下載、部署和使用大模型(LLM)。它提供了豐富的LLM庫,如llama、qwen、mistral以及DeepSeek R1等,并且支持不同參數規模的模型,以適配不同性能的電腦設備?。Ollama雖然支持直接使用LLM,但僅能在命令行中進行對話,交互功能有限,因此需要配合其他工具使用?。通俗理解為用于方便本地部署大模型使用的工具,實現離線使用和數據得到安全保護。
DeepSeek R1
DeepSeek R1是一個大模型,常用于本地部署。通過Ollama和CherryStudio,用戶可以在本地電腦上部署和使用DeepSeek R1,從而實現離線使用和隱私保護。DeepSeek R1在本地部署時,不需要依賴高配置的GPU,較低參數規模的模型甚至不需要獨立顯卡也可以在電腦運行?。
CherryStudio
CherryStudio是一個可視化界面工具,內置了多個大模型服務商,用戶只需進行簡單的配置即可使用大模型。它使得交互操作更加方便,用戶不需要在命令行中進行對話?。通過配置Ollama模型,CherryStudio可以提供更友好的用戶界面,使得本地部署的大模型更容易使用?。通俗理解為就是一個與AI交互的界面,界面上可以選擇你部署好的不同AI模型(如deepseekR1等)進行使用。
下面我將詳細給大家分享把 DeekSeek 部署在本地電腦設備的教程,下面圖文教程是以 Mac 為例,但實際上 Windows 同樣適用。
下載 LLM 平臺和 DS 模型
運行 DeekSeek 需要用到大型語言模型(LLM)平臺,目前比較火我個人也比較推薦的是 Ollama:旨在讓用戶能夠輕松地在本地運行、管理和與大型語言模型進行交互。
首先我們進入 Ollama 官網 ollama.com 下載對應的 Mac 或者 Windows 客戶端:
之后打開客戶端,點擊 install 即可大功告成,記住后續使用過程中 Ollama 不要關閉后臺:
接著就是最重要的,在 Ollama 官網下載 DeekSeek 模型,目前第一個就是:
可以看到 DeepSeek 包含多個多個模型,簡單來說數值越大就越聰明但需要的資源也越多:
具體如何選擇呢?如果你的是 Mac 電腦,那么可以參考下圖:
5B版本?
CPU?:最低4核,推薦多核處理器
?內存?:8GB以上
?硬盤?:3GB以上存儲空間(模型文件約1.5-2GB)。
?顯卡?:非必需,若使用GPU加速,推薦4GB以上顯存的顯卡(如GTX 1650)
?適用場景?:低資源設備部署(如樹莓派、舊款筆記本)、實時文本生成(聊天機器人、簡單問答)、嵌入式系統或物聯網設備?
7B版本?
CPU?:8核以上,推薦現代多核CPU
?內存?:16GB以上
?硬盤?:8GB以上
?顯卡?:推薦8GB以上顯存的顯卡(如RTX 3070/4060)
?適用場景?:本地開發測試、中等復雜度NLP任務(文本摘要、翻譯)、輕量級多輪對話系統?
14B版本?
CPU?:12核以上
?內存?:32GB以上
?硬盤?:15GB以上
?顯卡?:16GB以上顯存的顯卡(如RTX 4090或A5000)
?適用場景?:企業級復雜任務(合同分析、報告生成)、長文本理解與生成(書籍/論文輔助寫作)?。
根據自己電腦的配置,在這里下載1.5b的輕量級deepseek模型進行演示,如下命令:
ollama run deepseek-r1:1.5b
輸入問題,馬上就能收到回答,速度挺快的:
本地DeepSeek可視化
本地 DeekSeek 可視化這種類型的工具都是建立在上述 Ollama 和模型安裝完成基礎之上的,所以上面的步驟一定要完成。這里一般有兩種工具,一種是瀏覽器插件,另一種是 App 客戶端。
下面我將詳細給大家分享把 DeekSeek 部署在本地電腦設備的教程,下面圖文教程是以 Mac 為例,但實際上 Windows 同樣適用。
不過在終端 App 對話,每次都需要打開終端然后運行相應的指令,并且都是 markdown 純文本顯示不夠美觀,這時候就需要用到可視化操作界面了。
首先我們介紹瀏覽器插件:Page Assist。
直接在 Chrome 商店搜索 Page Assist 安裝到瀏覽器,插件默認是英文可以修改改成中文,然后在 RAG 設置里面的文本嵌入模型選擇 deepseek,這樣就可以開啟聯網搜索:
最后回到主頁面,在對話框輸入你的問題,必要時候勾選聯網開關:
接下來介紹 AI 可視化客戶端,類似的產品很多,目前比較火的有Chatbox,還有Cherry Studio。
1、首先下載一個叫 Cherry Studio的軟件,這個軟件主要用于與AI交互的可視化界面。如下圖。網址: https://cherry-ai.com/download
2、右鍵管理員身份運行安裝“Cherry-Studio-0.9.19-setup.exe”軟件即可。
3、安裝好后,桌面雙擊運行該軟件,進行設置添加deepseek模型
4、選擇deepseek模型進行對話
5、現在就可以用界面跟AI交互啦
總結
看到這里,相信你對DeepSeek 本地化部署又一定了解了;其實部署不難,如果你是個人搭建體驗的話,也不用再為性能和本地硬件資源發愁;恰好你有充足的算力和技術儲備,本地部署也是個非常不錯的選擇,喜歡DIY的同學不容錯過。 DeepSeek 之所以爆火,有天時地利人和的因素,帶來了“中國也可以”這份信心,甚至有夸張說是國運的開始。這,才是我們真正要守護的希望。
本文轉載自公眾號數字化助推器 作者:天涯咫尺TGH
原文鏈接:??https://mp.weixin.qq.com/s/W0VOde67VxLN1APxc98oTg??
