超詳細,DeepSeep 接入PyCharm實現AI編程!(支持本地部署DeepSeek及官方DeepSeek接入),建議收藏!
在當今數字化時代,AI編程助手已成為提升開發效率的利器。DeepSeek作為一款強大的AI模型,憑借其出色的性能和開源免費的優勢,成為許多開發者的首選。今天,就讓我們一起探索如何將DeepSeek接入PyCharm,實現高效、智能的AI編程。
一、為什么選擇DeepSeek + PyCharm?
DeepSeek是一款擁有671B參數的混合專家(MoE)模型,其處理速度每秒可達60個Token,性能卓越。PyCharm作為一款廣受開發者喜愛的Python集成開發環境,提供了智能代碼提示、自動補全、語法檢查等功能。將DeepSeek與PyCharm結合,不僅能提升編程效率,還能在本地實現AI輔助編程,無需擔心隱私和成本問題。
接下來,本文教你兩種接入方法:
- 將本地部署的DeepSeek,接入PyCharm
- 使用官方的DeepSeek,并接入PyCharm
圖片
二、將本地部署的DeepSeek,接入PyCharm
DeepSeek R1模型是開源的,我們可以選擇在本地部署DeepSeek,在本地搭建大模型,除了免費、能夠方便個人知識庫管理外,還可以保障數據隱私安全問題,適合個人知識管理與編程學習。
接下來,介紹如何將在本地搭建DeepSeek模型,并將本地大模型接入到PyCharm,以實現AI高效編程。
為了照顧到大部分朋友,本文推薦的搭建方法已將電腦配置要求降低最小,選擇DeepSeek模型參數也是最小的,按照此方法,普通電腦也能飛速跑。
具體操作:
1、下載ollama(https://ollama.com/download)
圖片
2、選擇模型,DeepSeek-R1 一共提供了7個不同版本,隨著尺寸參數變大對電腦要求也會變高
圖片
電腦沒有大顯存GPU的朋友,推薦安裝1.5b尺寸,這版尺寸大多數電腦都能流暢運行。
3、下載模型,以1.5b為例,
圖片
打開命令行,輸入:ollama run deepseek-r1:1.5b
圖片
下載完成后,就能直接將deepseek下載到自己的電腦上。
4、接下來,就是將本地安裝好的模型接入到PyCharm 了。
5、打開PyCharm,找到文件(File)-設置(Settings)-插件(Plugins),輸入CodeGPT,即可點擊安裝(Install)即可:
圖片
6、安裝好CodeGPT插件后,在工具(Tools)下會出現CodeGPT,點擊Providers,找到Ollama(Local),選擇剛剛安裝的deepseek-r1:1.5b,點擊OK就可以了:
圖片
7、完成上述操作后,就可以愉快的在PyCharm中使用DeepSeek-r1實現AI編程學習了,左側是代碼編輯界面,右側是r1大模型,直接對話式提問,省去了來回不同頁面折騰的麻煩:
圖片
大家可以自行感受一下DeepSeek-r1:1.5b大模型的回復延時,幾乎1~2秒鐘就可以響應,效果還算可以。
另外,CodeGPT插件顯示了Tokens數,只是一個數字統計,無任何費用,因為使用的是本地自己電腦的算力哦。
三、使用官方的DeepSeek,并接入PyCharm
1、訪問DeepSeek官網(https://www.deepseek.com/),點擊“API開放平臺”。
2、在左側菜單中點擊“API Keys”,然后點擊“創建API Key”,輸入名稱(如“AI代碼提示”),點擊“創建”。創建成功后,復制生成的API Key,妥善保存。
圖片
3、打開PyCharm,依次點擊“文件 -> 設置 -> 插件”,搜索“Continue”插件,點擊“安裝”。
圖片
安裝完成后,點擊“應用”,插件安裝成功。
4、安裝完成后,在右側標簽欄中找到“Continue”標簽,點擊進入設置。點擊“設置”按鈕,彈出配置文件,將apiKey替換為之前保存的DeepSeek API Key。
圖片
5、選擇DeepSeek Coder模型,點擊連接。
圖片
6、保存配置文件后,即可開始使用DeepSeek的AI編程功能。并且可以發現,Continue插件,也是支持連接本地部署 的模型的
圖片
好了,CodeGPT和Continue兩款插件,應該是目前大模型+編程UI做的最好的插件了,感興趣的朋友可以根據此篇文章動手安裝試試。