Windows本地部署OpenClaw并连接Ollama模型的完整指南
本文档基于实际部署经验编写,旨在帮助你在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力。文档包含了所有关键步骤以及常见问题的解决方案。

一、环境准备
1.1 硬件要求
- NVIDIA GPU:建议显存 ≥8GB(如 RTX 4060/5060 系列),用于流畅运行 7B~14B 量化模型。
- 内存:建议 ≥16GB(本文档使用 32GB 内存)。
- 磁盘空间:至少 20GB 剩余空间用于存放模型文件。
1.2 软件要求
- 操作系统:Windows 11(本文基于 Windows 11 测试)。
- PowerShell:以管理员身份运行(部分操作需要)。
- Node.js:≥18.0.0(用于安装 OpenClaw)。
- Git(可选,用于某些技能依赖)。
1.3 检查工具版本
node --version # 应显示 v18 以上 npm --version # 应显示 8 以上
若无 Node.js,请前往 nodejs.org 下载 LTS 版本安装。
二、安装 Ollama 并下载模型
2.1 安装 Ollama
访问 ollama.com 下载 Windows 版本并安装。安装后 Ollama 会自动注册为系统服务,开机自启。
验证安装:
ollama --version
2.2 拉取基础模型(以 Qwen2.5 7B 为例)
ollama pull qwen2.5:7b
等待下载完成(约 4.7 GB)。
提示:若需更强的推理能力,可考虑 Qwen3 8B:ollama pull qwen3:8b
2.3 创建支持更大上下文窗口的模型(OpenClaw 要求 ≥16K)
OpenClaw 默认要求模型上下文窗口至少 16000 tokens,而基础模型可能只有 4096,因此需要创建自定义模型。
切换到用户目录(避免权限问题):
cd C:\Users\<你的用户名>
创建 Modelfile:
@" FROM qwen2.5:7b PARAMETER num_ctx 32768 "@ | Out-File -Encoding ascii Modelfile
查看文件内容确认:
Get-Content Modelfile
应显示:
FROM qwen2.5:7b PARAMETER num_ctx 32768
创建新模型(例如 qwen2.5:7b-32k):
ollama create qwen2.5:7b-32k -f Modelfile
验证模型已创建并查看上下文参数:
ollama list # 应看到 qwen2.5:7b-32k ollama show qwen2.5:7b-32k --modelfile # 确认包含 num_ctx 32768
注意:若创建时出现 unknown type 错误,请检查 Modelfile 是否包含不可见字符,或改用 -Encoding ascii 重新生成。
三、安装 OpenClaw
3.1 使用 npm 全局安装
npm install -g openclaw
3.2 验证安装
openclaw --version
应显示类似 2026.2.22-2 的版本号。
四、配置 OpenClaw 连接本地模型
4.1 运行配置向导
openclaw onboard
4.2 按提示选择配置项
| 步骤 | 操作 |
|---|---|
| Model/auth provider | 选择 Custom Provider(列表最后一项) |
| API Base URL | 输入 http://127.0.0.1:11434/v1 |
| API Key | 输入任意字符串(如 ollama),不可留空 |
| Endpoint compatibility | 选择 OpenAI-compatible |
| Model ID | 输入你创建的模型名(如 qwen2.5:7b-32k) |
| 后续问题 | 全部选择 Skip for now 或 No,直到完成 |
重要:若配置时提示 Verification failed,请先确保 Ollama 服务正在运行(可执行 ollama list 测试)。
4.3 验证配置是否成功
配置完成后,会显示 Web UI 地址(如 http://127.0.0.1:18789)和 token。你可以先不打开,直接进入 TUI 测试。
五、解决上下文窗口错误
首次启动 TUI 时可能会遇到:
Model context window too small (4096 tokens). Minimum is 16000.
这是因为 OpenClaw 从模型元数据中读取的上下文仍是 4096,虽然你已在 Ollama 中设置了 32768,但 OpenClaw 缓存了旧值。
手动修改配置文件
找到 OpenClaw 的两个 JSON 配置文件:
C:\Users\<用户名>\.openclaw\openclaw.jsonC:\Users\<用户名>\.openclaw\agents\main\agent\models.json
用记事本打开,找到 models.providers.custom-127-0-0-1-11434.models 数组中 id 为你的模型名的对象,将 contextWindow 和 maxTokens 的值从 4096 改为 32768。
示例修改后:
{
"id": "qwen2.5:7b-32k",
"contextWindow": 32768,
"maxTokens": 32768,
...
}保存文件后完全退出 OpenClaw TUI(按 Ctrl+C),然后重新启动:
openclaw tui
此时错误应消失,AI 可以正常对话。
六 启动 TUI 并测试对话
openclaw tui
看到类似以下界面即成功:
session agent:main:main Wake up, my friend!
输入任意消息,AI 应能正常回复。
七、安装常用技能(扩展功能)
OpenClaw 通过技能(Skills)实现各种外部操作。目前你已就绪的技能可通过 openclaw skills list 查看。下面推荐安装一些基础且 Windows 兼容的技能。
7.1 使用 clawhub 管理技能
首先安装技能管理工具本身(只需一次):
npx clawhub install clawhub
之后你就可以在 TUI 中让 AI 帮你安装技能(例如说“安装 github 技能”),不过我们仍用命令行操作。
7.2 安装推荐技能
# 文件操作(让 AI 能保存文件到工作区) npx clawhub install filesystem-mcp # 或 clawdbot-filesystem # GitHub 集成(需安装 gh CLI) npx clawhub install github # PDF 编辑 npx clawhub install nano-pdf # 笔记同步 npx clawhub install notion npx clawhub install obsidian # 任务管理 npx clawhub install trello # 摘要生成(支持 URL、本地文件) npx clawhub install summarize # 天气查询(无需 API) npx clawhub install weather # 本地语音识别 npx clawhub install openai-whisper # 本地语音合成 npx clawhub install sherpa-onnx-tts
7.3 处理速率限制
若出现 Rate limit exceeded,说明未登录的匿名用户请求过多。解决方法:
- 等待几分钟后重试。
- 或注册 clawhub 账号并登录:
npx clawhub login(按提示在浏览器中完成)。
7.4 技能安装后的必要操作
重启 OpenClaw 网关:退出 TUI(Ctrl+C)再重新运行 openclaw tui。
检查技能状态:openclaw skills list,确保新技能显示 ✓ ready。若仍为 ✗ missing,说明缺少外部依赖(如 CLI 工具),请根据提示安装。
- 例如
github需要安装 GitHub CLI。 obsidian需要安装 obsidian-cli。filesystem-mcp可能需要配置允许访问的路径。
八、常见问题及解决方法
Q1: 执行ollama serve提示端口 11434 被占用
- 原因:Ollama 已在后台运行(作为系统服务)。
- 解决:直接使用即可,无需手动启动。若需重启,可在任务管理器中结束 ollama.exe 进程,然后重新运行
ollama serve。
Q2: OpenClaw 配置时提示Verification failed: This operation was aborted
可能原因:
- Ollama 服务未运行 → 运行
ollama list测试。 - API Key 留空 → 必须填入任意字符串。
- Base URL 末尾缺少
/v1→ 应填写http://127.0.0.1:11434/v1。
Q3: 启动 TUI 后仍报上下文窗口过小,但已修改配置文件
解决:确保你修改的是正确的模型条目(即你实际使用的模型 ID)。修改后务必完全退出 TUI(按 Ctrl+C),并重启 OpenClaw 网关(重新运行 openclaw tui)。若仍无效,可尝试删除 ~/.openclaw/agents/main/agent/models.json 让系统重新生成(先备份)。
Q4: 技能安装后状态仍为✗ missing
原因:技能依赖的外部工具未安装或未加入 PATH。
解决:查看技能描述,安装所需 CLI 工具。例如:
github→ 安装ghobsidian→ 安装obsidian-cliopenai-whisper→ 下载 whisper.cpp 的 Windows 可执行文件并加入 PATH。
Q5: 技能安装时遇到Rate limit exceeded
解决:等待 10-15 分钟后再试,或使用 npx clawhub login 登录以提高限额。
Q6: AI 无法将文件保存到桌面(权限问题)
- 默认权限:AI 只能读写 OpenClaw 工作区目录
~/.openclaw/workspace。 - 临时方案:让 AI 将文件保存到工作区,然后你手动复制到桌面。
- 进阶方案:配置
filesystem-mcp技能,允许访问额外路径(需修改技能配置,较复杂,按需查阅文档)。
Q7: Windows 上哪些技能不可用?
依赖 macOS 专有框架的技能无法使用,例如:
apple-notes, bear-notes, apple-reminders, things-mac, bluebubbles, imsg。
九、下一步
现在你的 OpenClaw 已经具备了基础的对话能力,并安装了实用的技能。你可以:
- 在 TUI 中尝试让 AI 帮你总结文档、管理 GitHub、生成图像等。
- 探索更多技能:
npx clawhub search <关键词>。 - 配置消息通道(如 Telegram),让 AI 接入即时通讯。
如果遇到任何问题,欢迎查阅 OpenClaw 官方文档 docs.openclaw.ai 寻求帮助。祝你使用愉快!
到此这篇关于Windows本地部署OpenClaw并连接Ollama模型的完整指南的文章就介绍到这了,更多相关Windows本地部署OpenClaw内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章

一文教你解决Windows安装OpenClaw报错:无法加载npm.ps1,禁止运行脚本
在Windows PowerShell中执行OpenClaw安装命令时,可能会出现如下权限错误:无法加载npm.ps1,禁止运行脚本,下面小编就和大家详细介绍一下问题出现的原因以及如何解决吧2026-03-09
0基础安装 OpenClaw 图文教程(Windows 系统)
OpenClaw 是一个可自托管的个人 AI 助手,它可以运行在你自己的电脑上并通过 Telegram 等聊天渠道接收消息,再调用执行、网页、浏览器等能力,帮你完成各种自动化操作2026-03-08
Windows下OpenClaw的安装与Debug配置教程最终版(MiniPC i3-N305 / 无 G
这篇文章主要介绍了Windows下OpenClaw的安装与Debug配置,机器是MiniPC i3-N305 / 无 GPU,需要的朋友可以参考一下,有条件的尽量用mac系统简单快捷,一次通过的成功率高2026-03-03
Windows 系统下的 WSL2 中安装 OpenClaw 的完整详细教程
在 Windows 系统下的 WSL2 中安装 OpenClaw 的完整详细教程,你可以让它运行在自己的电脑上,通过 WhatsApp、Telegram、Discord、Slack 等你已经在用的聊天软件与它对话2026-03-01






最新评论