Ollama如何修改配置模型的存放地址
发布时间:2026-03-09 10:47:39 作者:老赵全栈实战
我要评论
本文介绍了如何修改Ollama模型的默认下载路径,包括Windows和Linux/macOS系统的配置方法,通过配置环境变量,可以将模型存储到其他磁盘,需要的朋友们下面随着小编来一起学习学习吧
📅 今日知识点
- 核心主题:修改Ollama所下载模型的存放地址
💻 默认存放路径
默认情况下,Ollama会将模型下载到系统盘,Windows路径为:C:\Users<你的用户名>.ollama\models,Linux/macOS为: ~/.ollama/models,这可能会导致默认盘空间不足。通过配置环境变量,可以将模型存储到其他磁盘。
1. Windows 系统配置方法
方法一:通过系统环境变量配置(推荐)
- 打开「系统属性」→「高级」→「环境变量」
- 在「系统变量」中点击「新建」
- 添加以下变量:
变量名:OLLAMA_MODELS 变量值:D:\Ollama\models # 替换为你想存储的路径
- 确认后重启Ollama服务:
# 重启Ollama服务 net stop ollama net start ollama
方法二:通过PowerShell临时配置
# 临时设置环境变量(仅当前会话有效)
$env:OLLAMA_MODELS = "D:\Ollama\models"
# 永久设置环境变量
[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\Ollama\models", "Machine")2. macOS/Linux 系统配置方法
# 临时设置(当前终端会话有效) export OLLAMA_MODELS=/path/to/your/models # 永久设置 # 编辑 ~/.bashrc 或 ~/.zshrc echo 'export OLLAMA_MODELS=/path/to/your/models' >> ~/.bashrc source ~/.bashrc
3. 验证配置是否生效
# 检查环境变量 echo $OLLAMA_MODELS # Linux/macOS # 或在 PowerShell 中 $env:OLLAMA_MODELS # Windows
4. 迁移已有模型
如果已经下载了模型,需要手动迁移:
# 1. 停止Ollama服务 sudo systemctl stop ollama # Linux # 或 net stop ollama # Windows # 2. 复制现有模型到新路径 # Windows 示例: xcopy "C:\Users\%USERNAME%\.ollama\models" "D:\Ollama\models" /E /H /C /I # Linux/macOS 示例: cp -r ~/.ollama/models/* /path/to/new/location/ # 3. 设置新路径并重启服务 export OLLAMA_MODELS=/path/to/new/location net start ollama # Windows sudo systemctl start ollama # Linux
⚠️ 避坑指南
常见问题:环境变量设置后不生效
现象:设置了OLLAMA_MODELS但模型仍下载到默认路径 解决方案:
- 确保重启了Ollama服务
- 检查环境变量作用域(用户变量 vs 系统变量)
- 验证路径是否存在且有写入权限
- 最后可以尝试重启机器
# 检查路径权限 ls -ld $OLLAMA_MODELS # Linux/macOS # 或 Get-Acl $env:OLLAMA_MODELS # Windows PowerShell
到此这篇关于Ollama如何修改配置模型的存放地址的文章就介绍到这了,更多相关Ollama模型存放内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章
本文主要介绍了如何查看Ollama的GPU内存使用情况,包括通过命令行工具ollamaps和任务管理器两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考2026-03-09
Ollama 是一个开源工具,旨在让用户能够在本地轻松运行大型语言模型,它封装了模型下载、环境配置、API服务等复杂步骤,提供了简洁的命令行和API接口2026-03-08
文章介绍了Ollama模型管理工具的各项命令,包括模型的拉取、运行、列出、查看、删除等操作,同时,还涉及服务管理、配置环境变量、高级模型操作、API使用、批量操作等,文章详2026-03-08
Ollama 提供了多种命令行工具(CLI)供用户与本地运行的模型进行交互2026-03-08
运行 Ollama 模型是在本地使用大语言模型(LLM)进行推理、对话或其他任务的核心步骤,以下是运行 Ollama 模型的简要指南,涵盖拉取模型、运行模型以及常见配置,适用于已安2026-03-08
Ollama 简单安装(windows/mac/linux/docker)
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行,Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互2026-03-07
Ollama 可以说是一个让你在自家电脑上就能轻松玩转大语言模型的“AI 模型管家”,它的核心作用就是将复杂的大模型本地部署过程,简化到只需几行命令,让每个人都能便捷、安2026-03-07
Ollama最新版安装包下载和安装步骤(开源,简单,小白5分钟学会)
本文详细介绍了Ollama的安装流程,包括Windows和Linux两个平台的安装步骤,以及如何修改模型存储路径和使用示例,本文给大家介绍的非常详细,感兴趣的朋友跟随小编一起看看吧2026-03-06










最新评论