详解DeepSeek本地部署(ollama、Cherry Studio)
Deepseek本地部署
1、打开ollama官网(ollama.com),点击下载。
注:ollama是完全开源的,需要 Windows 10 或更高版本

2、下载完成后,右键以管理员身份运行
![]()
3、点击安装


4、安装完成后打开cmd指令,输入ollama,显示以下界面后则安装成功(未成功则需要配置环境变量)。

5、接下来到ollama官网首页,点击DeepSeek-R1,选择一个版本下载,版本越大模型量越大,本地部署质量越高,运行也就相应变慢,需要的电脑配置越高。

6、选择对应的版本,复制粘贴到cmd中,执行ollama run deepseek-r1:8b这条命令,等待显示success后,表示部署完毕。



7、接下来就可以进行使用了。

8、下载第三方工具(Cherry Studio),对接ollama API形成前端界面,达成窗口对话模式。官网:cherry-ai.com

9、安装完毕后进行如下操作,点开设置,开启ollama,点击管理,添加模型版本。


10、点击对话按钮,在顶部选择模型,即可在对话框进行对话,。

本地部署完毕!
到此这篇关于详解DeepSeek本地部署(ollama、Cherry Studio)的文章就介绍到这了,更多相关deepseek本地部署内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章

Mac M1中运行DeepSeek-R1-Distill-Qwen-1.5B方案及避坑指南
本文介绍了Mac M1环境下的大模型本地运行自动化部署DeepSeek-R1-Distill-Qwen-1.5B镜像的完整方案,包括环境配置、依赖安装、内存优化、推理测试等关键步骤实现,具有一定2026-04-09



最新评论