openclaw调用vllm服务的实现

  发布时间:2026-03-24 15:02:20   作者:dragonchow123   我要评论
这篇文章主要介绍了openclaw vllm服务openclaw调用vllm服务的实现,包括启动vllm服务、配置openclaw、解决相关问题等,具有一定的参考价值,感兴趣的可以了解一下

赠送14M的token用完了,打算vllm部署Qwen来跑一跑openclaw

1,起vllm服务

vllm doc

CUDA_VISIBLE_DEVICES=0,1 python -m vllm.entrypoints.openai.api_server \
	--model Qwen3-32B \
	--served-model-name qwen3-32b \
	--tensor-parallel-size 2 \
	--enable-auto-tool-choice \
    --tool-call-parser hermes \
	--port 50072

2,openclaw配置vllm的provider

2.1 服务器上openclaw

openclaw onboard配置一下provider,url:http://ip:50072/v1, 模型名qwen3-32b,apiKey随便填一个
就能调自己的vllm服务了,可以随便测,不用担心tokens;

2.2 本地openclaw

通过VScode连服务器

  1. 如果服务器端口开发,直接vscode转发端http://127.0.0.1:50072
  2. 如果服务器端口不给转发,只能通过公司公网转发端口,直接用这个公网url,会报错“未登录”。
    • 解决:
      • 浏览器打开“<公网url>/version”,可以显示vllm版本,连通。
      • F12,复制Cookie
      • openclaw.json: models.providers.vllm增加:
         "headers": {
            "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/130.0.0.0 Safari/537.36 QuarkPC/6.3.5.718", # 可能不需要,没测过
            "Cookie": "__itrace_...."
          },
      • 注意:如果有clashx,不能设置为全局(直连+关闭设置为系统代理);
      • 比较麻烦,Cookie更新后都需要跟新openclaw的配置,但算是通了;

问题

  1. 如何停止vllm服务,换个模型重启?不能直接kill,如下重启:
    pkill -15 -f vllm.entrypoints.openai.api_server
    # 等gpu显存退了
    pkill -9 -f vllm
  2. tool parser,vllm起服务名字中,需要加上tool相关参数,因为这边基本是要tool能力的。
  3. max_model_len参数不需要设置,因为默认用模型config.json中max_position_embeddings,超过它的话又会报错。
  4. qwen3-32b,长度太短,40960,聊一轮就报长度超了,没法用在openclaw中。
  5. qwen3-vl-32b-instruct的max_position_embeddings=26w,够用了;但是效果不行,一直在读文件,停不下来;虽然qwen3-vl用了图片视频以及长文本,但真正的长文本能力应该比较弱;
  6. 另外,在docker中装的openclaw,在docker里面,只能前台运行“openclaw gateway”。
  7. qwen3-vl-32b-thinking,为啥界面显示thinking的内容(已经设置/think off; /reasoning off)?
    • vllm起服务时加上--reasoning-parser deepseek_r1参数,解析think内容;
    • 不加此参数,返回的message中所有output都在content字段中,加了参数后,就把think和最终答案拆开了,分别放在reasoning和content字段;
    • 加了参数后,问题解决,不会展示think内容;
  8. 设置VLLM_LOGGING_LEVEL=DEBUG,可以看到vllm日志中记录的完整prompt,不过其他信息也特别多。
  9. skillhub,安装后重启openclaw也没有生效,手动配置环境export PATH="~/.local/bin:$PATH"
  10. Qwen3-235B-A22B-Thinking-2507,4张H20(显存141G)可以起vllm服务
    VLLM_LOGGING_LEVEL=DEBUG CUDA_VISIBLE_DEVICES=0,1,2,3 python -m vllm.entrypoints.openai.api_server \
    	--model Qwen3-235B-A22B-Thinking-2507 \
    	--served-model-name qwen3-235b-tk \
    	--tensor-parallel-size 4 \
    	--enable-auto-tool-choice \
    	--tool-call-parser hermes \
    	--enable-log-requests \
    	--gpu-memory-utilization 0.95 \
    	--reasoning-parser deepseek_r1 \
    	--port 50072

到此这篇关于openclaw调用vllm服务的实现的文章就介绍到这了,更多相关openclaw vllm服务内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!

相关文章

  • OpenClaw调用Cursor的实现示例

    本文主要介绍了OpenClaw调用Cursor的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2026-03-19
  • 一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型

    本文详细介绍了在 Ubuntu 24.04 系统上通过 Docker 部署 Ollama 并运行 Qwen3.5-9B的完整流程,同时对接 OpenClaw 实现 Web 交互,文中通过示例代码介绍的非常详细,需要的
    2026-03-12
  • OpenClaw故障排查之如何读懂调用日志快速定位问题

    本文基于社区最新实践,手把手教你如何利用 OpenClaw 的日志系统,快速定位并解决常见问题,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下
    2026-03-10
  • OpenClaw使用Ollama本地模型的实现(支持工具调用))

    Ollama 是一个本地 LLM 运行时,可以轻松在你的机器上运行开源模型,OpenClaw 通过 Ollama 的 OpenAI 兼容 API 进行集成,下面就来详细的介绍一下,感兴趣的可以了解一下
    2026-03-06

最新评论