Hermes Agent对接本地Ollama大模型的实现步骤(完全离线运行)
前面我们完成了Hermes-Agent的安装、源码解析和自定义工具开发,今天带来一个超实用的实战教程——对接本地Ollama大模型,实现完全离线运行,无需联网、无需API Key,保护隐私的同时,摆脱对云端模型的依赖!全文流程清晰、代码可直接复制,避免离线部署时踩坑~

📌 前言:为什么要对接本地Ollama?
Hermes-Agent默认对接OpenRouter、OpenAI等云端模型,需要API Key且联网使用,存在两个痛点:一是API调用需要付费,二是敏感数据会上传到云端,存在隐私泄露风险。
而Ollama是一款轻量级本地大模型运行工具,支持Llama 3、Mistral、Qwen等主流模型,一键部署、占用资源低,对接Hermes后,就能实现「本地Agent+本地模型」的完全离线架构,适合隐私敏感场景(如企业内部使用、本地办公)。
✅ 一、前期准备(两步到位)
Step 1:安装Ollama(本地大模型运行工具)
支持Linux、macOS、Windows(WSL2),安装命令如下(直接复制执行):
# Linux / macOS / WSL2 通用命令 curl -fsSL https://ollama.com/install.sh | sh # 安装完成后,启动Ollama服务 ollama serve # 后台运行可加 &,即 ollama serve &
验证安装成功:
ollama --version # 查看版本 ollama pull llama3:8b # 拉取一个轻量级模型(llama3 8B,约4GB,适合本地运行)
Step 2:确认Hermes环境
确保Hermes-Agent已安装,且能正常启动:
hermes version # 查看版本,正常输出即没问题 hermes stop # 若已启动,先停止,后续配置完成后重启
🛠️ 二、Hermes对接Ollama详细步骤
Step 1:安装Ollama Python依赖
Hermes对接Ollama需要依赖 ollama Python包,执行以下命令安装:
# 激活Hermes虚拟环境(手动安装用户) source ~/.hermes/venv/bin/activate # 安装ollama依赖 pip install ollama
Step 2:配置Hermes对接Ollama
有两种配置方式,推荐「CLI快速配置」(新手友好),也可手动修改配置文件。
方式1:CLI快速配置(推荐)
直接执行以下命令,一步完成配置:
# 启动Hermes配置向导,选择Ollama模型 hermes model # 后续步骤(按提示操作): # 1. 选择 LLM Provider → 输入 ollama # 2. 选择 Model → 输入 llama3:8b(或你已拉取的其他模型,如 mistral:7b) # 3. 确认配置 → 输入 y 保存
方式2:手动修改配置文件(进阶)
编辑Hermes配置文件 \~/\.hermes/config\.yaml,添加Ollama配置:
# 打开配置文件
vim ~/.hermes/config.yaml
# 添加以下内容(替换原有llm配置)
llm:
provider: ollama
model: llama3:8b # 你已拉取的Ollama模型
ollama:
base_url: http://localhost:11434 # Ollama默认端口,无需修改
temperature: 0.7 # 模型温度,越小越严谨
max_tokens: 4096 # 最大生成token数保存退出后,重启Hermes即可生效。
Step 3:验证对接是否成功(关键步骤)
# 1. 启动Hermes hermes # 2. 在交互界面输入测试指令 你好,我是Hermes用户,测试本地Ollama模型对接
如果Hermes能正常返回回复,且没有报错,说明对接成功!此时查看Ollama日志,能看到模型调用记录:
journalctl -u ollama # Linux查看Ollama日志
🚀 三、进阶优化(提升本地运行体验)
1. 更换更轻量/更强大的Ollama模型
如果本地配置较低(如8GB内存),推荐使用更轻量的模型;配置较高(16GB+内存),可使用更强大的模型:
# 轻量级模型(适合8GB内存) ollama pull llama3:8b-instruct # 指令微调版,更适合Agent调用 ollama pull qwen:7b-chat # 通义千问7B,中文支持更好 # 更强大的模型(适合16GB+内存) ollama pull llama3:70b-instruct ollama pull mixtral:8x7b
更换模型后,重新执行 hermes model 选择新模型即可。
2. 优化Ollama运行参数(减少资源占用)
如果本地内存不足,可修改Ollama启动参数,限制内存占用:
# 停止Ollama服务 pkill ollama # 限制内存占用(以限制使用4GB内存为例) OLLAMA_MAX_MEMORY=4GB ollama serve &
3. 配置模型缓存(加快调用速度)
Ollama会自动缓存模型,第一次调用较慢,后续调用会大幅加快;若想清理缓存,执行:
ollama prune # 清理未使用的模型缓存
🐛 四、常见问题&解决方案
| 问题 | 解决方案 |
|---|---|
| Hermes报错“Could not connect to Ollama” | 1. 检查Ollama服务是否启动(ollama serve);2. 确认base_url是http://localhost:11434;3. 重启Ollama和Hermes |
| 模型调用速度慢、卡顿 | 1. 更换更轻量的模型;2. 限制Ollama内存占用;3. 关闭其他占用内存的程序 |
| 回复乱码、逻辑混乱 | 1. 更换指令微调版模型(如llama3:8b-instruct);2. 降低temperature参数(如0.5);3. 重新拉取模型(ollama pull 模型名) |
| Ollama启动失败 | 检查本地内存是否充足(至少4GB),清理缓存后重新启动 |
💡 五、总结&互动引流
本文详细讲解了Hermes-Agent对接本地Ollama大模型的全过程,从Ollama安装、Hermes配置到验证测试,一步到位,实现完全离线运行,摆脱API Key和网络依赖!
更多相关Hermes Agent 本地Ollama大模型内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章

Hermes Agent保姆级教程:安装、迁移OpenClaw、接入飞书全流程
本文介绍了使用hermes-agent在云服务器上安装并接入飞书的过程,首先,通过命令安装hermos-agent,并选择MiniMax模型服务,然后,绑定飞书消息平台,并创建飞书机器人,最后,安装2026-04-16
2026年从OpenClaw迁移到Hermes Agent的上手与实践指南
Hermes 官方给自己的定位很直接,是一个 self-improving AI agent,核心不是会不会聊天,而是有没有一条持续学习、持续复用的闭环,下面我们就来看看如何从OpenClaw迁移到Her2026-04-15
HermesAgent是由NousResearch出品的开源AIAgent框架,主打越用越聪明,本文详细记录了一从安装到配置再到排查常见问题的全流程,主要,需要的朋友可以参考下2026-04-14
Hermes Agent 安装指南(附与OpenClaw的区别)
Hermes Agent是一个开源的、能够随着使用而不断自我进化的AI智能体(AI Agent),被开发者社区亲切地称为“爱马仕”,它由美国的Nous Research公司开发,2026-04-14
最近 Hermes Agent 很火,有点儿当初 OpenClaw 问世时的意味,特意去某鱼上看了一眼,已经有很多关于 Hermes Agent 部署的生意在做了2026-04-14
Windows本地部署Hermes Agent的完整教程:一键安装脚本与避坑指南
本文将为您提供一份保姆级的 Hermes安装 教程,无论您是 AI 开发者还是效率工具爱好者,只需通过简单的一键脚本,即可在 Windows 环境下快速部署 Hermes Agent,本文还总结了2026-04-14
Hermes Agent 安装教程(Mac+windows):看完就能去闲鱼接单
Hermes Agent 必定是新一代的 OpenClaw,想想前一段时间多少人在闲鱼吃到 OpenClaw 的红利,接下来你也可以吃到 Hermes 的红利2026-04-14
Hermes Agent安装与实战指南:从安装到与OpenClaw全方位对比
本文介绍了HermesAgent的安装、使用和与OpenClaw的对比,HermesAgent是一款开源AI智能体框架,强调自学习和自我迭代,适合需要长期记忆和技能沉淀的应用场景,文章详细介绍了安2026-04-13
文章介绍了如何在Feishu和企业微信上创建自建应用,配置应用权限,使用HermesGateway设置聊天平台,并通过命令行进行配对和测试,最后在企业微信中配置机器人并进行对话测试,需2026-04-12











最新评论