OpenClaw+Ollama+Qwen3.5:cloud/Qwen3:0.6b部署本地离线部署AI大模型(无需GPU)
前言
随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。
今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。
一、项目介绍
本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。
用到的工具:
- Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型
- Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用
- Qwen3:0.6b:阿里云开源的超轻量大语言模型,占用内存极低(1GB左右),适合8GB内存低配电脑,作为备选模型
- OpenClaw:美观好用的本地AI可视化交互界面
- 特点:免费、离线、隐私安全、低配置可运行
二、环境准备
- 操作系统:Windows 10 / Windows 11
- 内存:最低 8GB(推荐 16GB 更流畅)
- 无需独立显卡,CPU 即可运行
- 网络:仅在下载模型时需要,运行时可完全断网
三、详细安装步骤
安装 Ollama
Ollama 是运行模型的核心,安装非常简单。
- 打开官网:https://ollama.com/
- 点击 Download 下载 Windows 版本
- 双击安装,一路下一步
- 安装完成后,Ollama 会自动在后台运行
验证是否安装成功:
打开 CMD 或 PowerShell,输入:
ollama --version

出现版本号即成功。
四、使用 Ollama 下载并运行模型(Qwen3.5:cloud + Qwen3:0.6b)
我实际下载了两个模型,可根据自身电脑配置选择运行,优先推荐 Qwen3.5:cloud(效果更好),8GB内存低配电脑推荐 Qwen3:0.6b(更流畅)。
4.1 下载并运行 Qwen3.5:cloud(主力模型)
继续在命令行输入以下命令,
第一次运行会自动下载模型,下载完成后出现 >>> 即启动成功,可直接输入问题测试,适配低配电脑,运行流畅无压力。
ollama run qwen3.5:cloud
出现 >>> 表示模型已启动成功。
你可以直接在这里输入问题测试:
你好,介绍一下自己

模型能正常回答,说明 Qwen3.5:cloud 部署成功。
4.2 下载并运行 Qwen3:0.6b(轻量备选模型)
若电脑内存较低(8GB及以下),运行 Qwen3.5:cloud 卡顿,可下载 Qwen3:0.6b 超轻量模型,命令行输入:
ollama run qwen3:0.6b
出现 >>> 表示模型已启动成功。
你可以直接在这里输入问题测试:
你好,介绍一下自己

模型能正常回答,说明部署成功一半。
安装 OpenClaw 可视化界面
OpenClaw 让你不用敲命令,直接像 ChatGPT 一样聊天。
- 打开 OpenClaw 发布页:https://github.com/sqzw-x/OpenClaw
- 找到最新版本下载 Windows 安装包
- 解压或安装后打开软件
- 连接 OpenClaw 与本地 Ollama
打开 OpenClaw 后:
- 右上角进入设置
- 模型选择:根据自身需求选择,主力推荐 qwen3.5:cloud,低配电脑选择 qwen3:0.6b
- Ollama 地址保持默认:http://localhost:11434
保存设置
回到主界面,即可开始聊天。
五、效果展示



与AI对话的效果截图


任务管理器内存占用展示(打开任务管理器,切换到“性能-内存”页面,同步显示AI运行状态)
示例说明:
OpenClaw 连接成功界面(截图包含设置页面、模型选择(可分别展示 qwen3.5:cloud 和 qwen3:0.6b 选择界面)、地址配置)
- 模型启动速度:约 3~10 秒
- 回答速度:流畅,可日常使用
六、常见问题与解决方法(非常重要)
- 内存占用:Qwen3.5:cloud 约 2GB~4GB,Qwen3:0.6b 约 1GB~1.5GB
- 模型启动速度:Qwen3.5:cloud 约 3~10 秒,Qwen3:0.6b 约 1~3 秒
- 回答速度:均流畅可日常使用,Qwen3:0.6b 适配低配电脑,卡顿更少
模型下载特别慢
解决方法:
- 先暂停下载重新开始,进度不会变
- 或等待半夜下载(网络高峰期避开)
OpenClaw 连接失败 / 连不上 127.0.0.1:11434
解决方法:
- 确保 Ollama 正在后台运行(任务栏右下角查看 Ollama 图标)
- 重启 Ollama:任务栏右键 Ollama → Restart
- 检查地址是否为:http://localhost:11434(切勿多写/少写字符)
电脑卡顿、内存不足
解决方法:
- 关闭其他软件(尤其是浏览器、视频软件、后台下载工具)
- 关闭其他软件(尤其是浏览器、视频软件、后台下载工具),释放内存
解决方法:
切换/运行 Qwen3:0.6b 命令:
切换至超轻量模型:若运行 Qwen3.5:cloud 卡顿,可切换到 Qwen3:0.6b 模型,占用内存极低,适配8GB及以下低配电脑
ollama run qwen3:0.6b
命令:使用更小参数模型(若 qwen3.5:cloud 卡顿):qwen3.5:4b
OpenClaw 不显示模型(qwen3.5:cloud 或 qwen3:0.6b)
ollama run qwen3.5:4b
解决方法:重启 OpenClaw 软件,重新加载模型列表
解决方法:
- 重新进入 OpenClaw 设置,根据自身需求选择 qwen3.5:cloud 或 qwen3:0.6b 模型并保存
- 重启 OpenClaw 软件
- 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取的 qwen3.5:cloud 和 qwen3:0.6b 模型)
- 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取模型)
七、项目总结
通过 Ollama + Qwen3.5:cloud + OpenClaw,我们轻松实现了:
通过 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(备选)+ OpenClaw,我们轻松实现了:
- 本地离线运行大模型
- 完全免费、无流量限制
- 可视化界面,使用体验接近在线AI
- 数据不上传,隐私百分百安全
适合人群:
- 想学习AI本地部署的新手
- 想学习AI本地部署的新手
- 注重隐私、不想数据上传云端
- 学生、开发者、日常办公使用;8GB内存低配电脑也能轻松适配(选择 Qwen3:0.6b 模型)
- 注重隐私、不想数据上传云端
- 学生、开发者、日常办公使用
到此这篇关于OpenClaw+Ollama+Qwen3.5:cloud/Qwen3:0.6b部署本地离线部署AI大模型(无需GPU)的文章就介绍到这了,更多相关OpenClaw+Ollama+Qwen部署内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章

Windows端本地部署OpenClaw的正确方法与避坑指南(拒绝失败率)
打开 OpenClaw 官网,你会看到官方提供了一行命令来安装,但如果你是 Windows 用户,千万不要直接执行一行命令安装,失败率极高,如果你是新手小白,我手把手带你养龙虾,凑2026-03-11
Windows、macOS、Linux三系统本地部署OpenClaw+避坑指南+Docker一键部
本文给大家分享全网最全的OpenClaw安装部署教程,覆盖Windows、macOS、Linux三系统本地部署,并最终提供Docker一键部署方案,感兴趣的朋友一起看看吧2026-03-10
Windows本地部署OpenClaw并连接Ollama模型的完整指南
本文档基于实际部署经验编写,旨在帮助大家在 Windows 系统上从零开始搭建 OpenClaw,并连接本地 Ollama 模型(如 Qwen2.5 或 Qwen3),使其具备完整的智能体能力,有需要的2026-03-10
本文给大家分享本地部署OpenClaw安装配置使用教程,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧2026-03-09
OpenClaw飞书插件本地部署时的高频报错 spawn EINVAL问题及解决方案
本文介绍在Windows和Mac环境下使用nvm管理Node.js进行OpenClaw飞书插件本地部署时遇到的spawnEINVAL报错问题,并提供了报错原因分析、无效尝试汇总到解决方案的步骤,帮助开2026-03-07
本文详细介绍如何在 macOS 本地部署 OpenClaw 智能助理框架,从环境准备到首次运行,手把手教你搭建属于自己的 AI 助理,适合零基础新手,全程实操无坑,需要的朋友可以参考2026-03-06
OpenClaw是本地优先、开源、可自主执行任务的 AI 智能体框架,不是单纯的聊天机器人,也不是大模型本身,而是把大模型变成能“真干活”的数字员工,这篇文章主要介绍了OpenC2026-03-06
本文详细介绍了在macOS/Linux/Windows系统上进行本地部署的步骤,并展示了如何配置飞书机器人以实现飞书内的AI对话,文中通过示例代码介绍的非常详细,需要的朋友们下面随着2026-03-05
OpenClaw(原Clawdbot/Moltbot)是一款开源的本地优先AI代理与自动化平台,支持多渠道通信集成、大模型调用及自动化任务执行,可满足个人与小型团队的智能辅助需求,这篇文章主2026-03-02
OpenClaw超轻量版本地部署指南介绍了一个功能完整且轻量级的AI助手,适用于学习和使用,该指南详细介绍了环境准备、快速安装、基础配置、核心功能体验等步骤,安装配置过程比2026-03-02












最新评论