OpenClaw接入阿里云永久免费模型解决方案

  发布时间:2026-03-06 11:30:20   作者:海兰   我要评论
OpenClaw是本地优先、开源、可自主执行任务的 AI 智能体框架,不是单纯的聊天机器人,也不是大模型本身,而是把大模型变成能“真干活”的数字员工,这篇文章主要介绍了OpenClaw接入阿里云永久免费模型解决方案的相关资料,需要的朋友可以参考下

Qwen2.5-7B-Instruct 模型为例

一、前置准备工作

1. 阿里云灵积账号与 API 准备

  1. 注册与实名认证

    • 打开 阿里云灵积 DashScope 平台,注册/登录账号。

    • 完成个人实名认证(推荐支付宝刷脸,1分钟完成,无需绑卡),这是解锁永久免费模型的唯一门槛。
      如下图所示:

  2. 开通模型服务

    • 进入「模型广场」,搜索 qwen2.5-7b-instruct,点击模型卡片进入详情页,如下图所示:

  3. 生成 API Key

    • 进入控制台左侧「API-KEY 管理」,点击「创建新的 API-KEY」,自定义名称后点击确定。

    • 立即复制并保存 API Key(可以随时复制)。
      如下图所示:

  4. 开启防扣费开关(必做)

    • 回到 qwen2.5-7b-instruct 模型详情页,找到「免费额度用完即停」开关,切换为开启状态(紫色),确保额度耗尽后自动进入永久免费通道,不会扣费。
  5. 另外免费额度说明

    • 当前页面的 100 万 tokens 免费额度,是平台给多模态模型的新用户专属限时体验额度,仅能用于这个 Qwen2.5-VL-32B-Instruct 模型,90日后就会过期,过期后未用完的额度也会直接清零,和永久免费文本模型的额度不互通、不通用。
    • 如果你的核心需求是 OpenClaw 的网页抓取、长文档汇总、竞品调研,纯文本的qwen2.5-7b-instruct永久免费款完全够用,不会有额度和时间限制;只有当你需要用到图片理解、图文解析能力时,才需要用到 VL 系列多模态模型,这部分没有永久免费权益。

2. OpenClaw 环境与权限预处理

  1. 确保 OpenClaw 已正确安装并能基本运行。

  2. 修复潜在权限问题(避免后续浏览器/文件访问报错):

    # 停止当前 OpenClaw 服务
    openclaw stop
    # 递归修正配置目录所有者为当前用户(将 tht 替换为你的实际用户名)
    sudo chown -R tht:tht /home/tht/.openclaw
    # 修正目录读写权限
    chmod -R 755 /home/tht/.openclaw

二、配置方法(三种可选)

方法一:Web UI 界面配置

全程鼠标操作,自动处理配置格式,不会出错。

  1. 启动 OpenClaw 并打开 UI

    openclaw gateway start

    浏览器访问 http://127.0.0.1:18789http://localhost:18789

  2. 进入配置页面

    • 点击左侧菜单「配置」或「Settings」,选择「Models」(模型)选项卡。
  3. 添加模型提供商

    • 点击「Add Provider」(添加提供商),选择 OpenAI Compatible(OpenAI 兼容模式)。

    • 按以下表格严格填写参数:

配置项填写内容
Provider Name(提供商名称)自定义,如 Aliyun-Qwen
Base URL(接口地址)必须填https://dashscope.aliyuncs.com/compatible-mode/v1
API Key粘贴你之前复制的阿里云 API Key
  1. 添加模型

    • 在刚添加的提供商下,点击「Add Model」(添加模型),按以下表格填写:
配置项填写内容
Model ID(模型ID)qwen2.5-7b-instruct
Model Name(模型名称)自定义,如 Qwen2.5-7B (永久免费)
Context Window(上下文窗口)必须填≥16000,推荐直接填 32768(模型原生最大值)
Max Output Tokens(最大输出)推荐填 8192
Cost(费用)全填 0
  1. 保存并应用配置

    • 点击「Save」(保存),再点击「Apply」(应用),让配置实时生效。
  2. (可选)设为默认模型

    • 进入「Agents」(智能体)设置,在「Default Model」(默认模型)下拉菜单中选择刚添加的 qwen2.5-7b-instruct,保存即可。

方法二:命令行向导配置(openclaw configure)

适合偏好命令行的用户,工具自动处理配置合并。

  1. 备份配置文件(以防万一):

    cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.backup
  2. 运行配置向导

    openclaw configure
  3. 按向导提示操作

    • 选择 Model (Pick provider + credentials),按回车确认。

    • 选择 Add a new model provider

    • 提供商类型选择 OpenAI-compatible

    • 按以下内容填写关键参数(其他步骤按需填写):

向导步骤填写内容
Provider Namealiyun-qwen
API Key粘贴你的阿里云 API Key
Base URLhttps://dashscope.aliyuncs.com/compatible-mode/v1
Model IDqwen2.5-7b-instruct
Context Window Size32768(必须≥16000)
Max Output Tokens8192
Model Alias(模型别名)qwen(后续用 /model qwen 快速切换)
Set as default model?按需选 y(是)或 n(否)
  1. 保存并退出向导,重启 OpenClaw 生效:

    openclaw stop && openclaw start

方法三:手动修改 JSON 配置

仅当前两种方法不生效时使用,需严格注意语法。

  1. 备份配置文件

    cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.backup
  2. 用编辑器打开配置文件

    nano ~/.openclaw/openclaw.json
  3. 按以下结构修改/添加配置(仅展示核心修改部分,保留原有的 Kimi 等配置):

    {
      "auth": {
        "profiles": {
          "aliyun:default": {
            "provider": "openai",
            "mode": "api_key"
          }
        }
      },
      "models": {
        "mode": "merge",
        "providers": {
          "aliyun": {
            "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
            "api": "openai-chat",
            "models": [
              {
                "id": "qwen2.5-7b-instruct",
                "name": "Qwen2.5-7B-Instruct",
                "reasoning": false,
                "input": ["text"],
                "cost": {
                  "input": 0,
                  "output": 0,
                  "cacheRead": 0,
                  "cacheWrite": 0
                },
                "contextWindow": 32768,
                "maxTokens": 8192
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "aliyun/qwen2.5-7b-instruct"
          },
          "models": {
            "aliyun/qwen2.5-7b-instruct": {
              "alias": "Qwen"
            }
          }
        }
      }
    }
  4. 保存并退出:按 Ctrl+O 保存,按 Ctrl+X 退出。
    如下图所示:

  5. 校验 JSON 语法(必须做,避免 invalid config 报错):

    jq . ~/.openclaw/openclaw.json

    输出完整 JSON 内容且无报错,代表语法正确。

  6. 通过命令行配置 API Key(不要写在 JSON 里,不安全):

    openclaw config set auth.profiles.aliyun:default.apiKey "你的阿里云API-KEY"
  7. 重启 OpenClaw 生效

    openclaw gateway restart

三、核心避坑指南(必须阅读,避免重复踩坑)

  1. 接口地址红线

    • 必须使用 OpenAI 兼容地址:https://dashscope.aliyuncs.com/compatible-mode/v1

    • 严禁使用灵积原生 API 域名,否则 OpenClaw 无法适配。

  2. 上下文窗口红线

    • contextWindow 必须 ≥ 16000,推荐直接填 32768(Qwen2.5-7B 原生最大值),否则会报 Model context window too small 错误。
  3. JSON 语法红线

    • 所有标点必须是英文半角字符,严禁使用中文逗号 、中文引号 “”

    • 手动修改后必须用 jq 或在线 JSON 校验工具检查语法。

  4. 权限问题

    • 若之前用 sudo/root 运行过 OpenClaw,必须按前置准备中的步骤修复目录权限,否则会出现 EACCES: permission denied 报错。
  5. API Key 安全

    • 优先通过 Web UI 或 openclaw config set 命令配置 API Key,不要直接写在 JSON 文件里。

四、验证配置成功

  1. 重启 OpenClaw 服务

    openclaw gateway restart
  2. 切换模型并测试

    • 打开 Web UI 对话界面,输入 /model Qwen(或你设置的模型别名)切换到 Qwen 模型。

    • 发送测试消息,如“你好,请介绍一下自己”,确认能正常收到回复。

    • (可选)发送一个长文本或网页抓取任务,确认不再出现上下文窗口报错。
      如下图所示:

在千问中消耗的tokens如下图所示:

神奇的是在kimi claw中居然还可以继续使用,不过用的是Qwen模型了,如下图所示:

五、常见问题快速排查

报错信息核心原因解决方法
invalid configJSON 语法错误(中文标点、括号不匹配等)jq . ~/.openclaw/openclaw.json 检查语法,修正错误标点
Model context window too small (4096 tokens). Minimum is 16000.上下文窗口配置值过小contextWindow 修改为 32768,保存并重启
EACCES: permission denied配置文件/目录权限被锁定按前置准备中的步骤执行 chownchmod 命令修复权限
模型连接失败/无响应API Key 错误、接口地址错误或模型未开通检查 API Key 是否正确、Base URL 是否为兼容地址、模型是否在灵积平台开通

六、接入了模型后,一切就感觉不可控了

你可以直接在chat窗口告诉他你想要配置的模型信息,让他自己配置,就行了,只要动动嘴皮子,它就可以自己搞定。
如下图所示:

也可以在kimi claw中搞一把,如下图所示:

同时可以看到配置文件:

总结

到此这篇关于OpenClaw接入阿里云永久免费模型解决方案的文章就介绍到这了,更多相关OpenClaw接入阿里云永久免费模型内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!

相关文章

  • OpenClaw 本地安装与配置十分钟完成(附常用命令速查)

    OpenClaw 是一个开源的个人 AI 助手,支持系统操作、文件读写、代码执行等,它可以通过配置文件进行各种设置,这篇文章给大家介绍OpenClaw 快速入门:10 分钟完成本地安装与配
    2026-03-06
  • OpenClaw从安装到使用的完整教程(官方脚本版)

    OpenClaw是一个本地运行的AI助手框架,支持多种聊天平台和功能,包括聊天问答、写文章、定时提醒等,通过配置向导,用户可以安装、配置和管理AI助手,确保数据安全和个人隐私,
    2026-03-05
  • 如何让OpenClaw接入豆包和OpenAI(新手避坑)

    文章主要介绍了如何使用OpenClaw将AI助手“小龙虾”本地化,使其同时接入豆包和OpenAI两大AI模型,实现“本地运行,云端智能”的混合玩法,感兴趣的朋友跟随小编一起看看吧
    2026-03-05
  • OpenClaw 完整本地部署安装与使用指南(接入飞书)

    本文详细介绍了在macOS/Linux/Windows系统上进行本地部署的步骤,并展示了如何配置飞书机器人以实现飞书内的AI对话,文中通过示例代码介绍的非常详细,需要的朋友们下面随着
    2026-03-05

最新评论