2026年Openclaw快速接入DeepSeek V4 Pro的完整教学指南
DeepSeek v4 重磅发布,博查 Model API 在首发当日便已支持v4 全系的调用,那么如何在 OpenClaw 平台中通过修改配置文件接入博查 Model API 以使用 DeepSeek V4 系列模型?
主要步骤包括定位 openclaw.json 文件、添加自定义 Provider 配置、设置默认调用模型以及重启网关验证。配置过程中需注意 contextWindow 参数调整及 api 协议凭证的正确填写,同时确保 API Key 安全。
0 前置准备
- 已安装 OpenClaw(版本 ≥ 1.8.0,低于该版本请先执行
brew upgrade openclaw升级);如果尚未安装,可以查看新手快速安装入门步骤。 - 已获取博查 API Key;(获取地址 open.bocha.cn)
- 熟悉基础的 JSON 语法。
1 新手快速安装入门
安装 OpenClaw
# macOS / Linux curl -fsSL https://openclaw.ai/install.sh | bash # Windows(PowerShell) iwr -useb https://openclaw.ai/install.ps1 | iex

运行配置引导
openclaw onboard --install-daemon
选择自定义模型供应商 Custom Provider:

配置信息如下:
# Model/auth provider Custom Provider # API Base URL https://api.bocha.cn/v1 # How do you want to provide this API key? Paste API key now # API Key (leave blank if not required) sk-****** # Endpoint compatibility Anthropic-compatible # Model ID deepseek-v4-pro # Verification successful. # Endpoint ID custom-api-bocha-cn # Model alias (optional) deepseek-v4-pro

2 更新模型配置
配置文件定位
安装完 OpenClaw 后,其所有模型、渠道配置都集中在 openclaw.json 文件中,不同操作系统的默认路径如下:
| 操作系统 | 配置文件默认路径 | 快速打开方式 |
|---|---|---|
| Windows | C:\Users<你的用户名>.openclaw\openclaw.json | 按 Win+R,输入路径直接跳转 |
| macOS | ~/.openclaw/openclaw.json | 终端执行 open ~/.openclaw/openclaw.json |
| Linux | ~/.openclaw/openclaw.json | 终端执行 vim ~/.openclaw/openclaw.json |
提示:如果找不到文件,先执行 openclaw init 初始化配置(执行后会自动生成配置文件)。
找到对应的 openclaw.json 配置文件,变更配置如下:
{
"agents": {
"defaults": {
"models": {
"custom-api-bocha-cn/deepseek-v4-pro": {
"alias": "deepseek-v4-pro"
}
},
"model": {
"primary": "custom-api-bocha-cn/deepseek-v4-pro"
}
}
},
"tools": {
"profile": "coding"
},
"models": {
"mode": "merge",
"providers": {
"custom-api-bocha-cn": {
"baseUrl": "https://api.bocha.cn/v1",
"api": "anthropic-messages",
"apiKey": "sk-******",
"models": [
{
"id": "deepseek-v4-pro",
"name": "deepseek-v4-pro (Custom Provider)",
"api": "anthropic-messages",
"baseUrl": "https://api.bocha.cn/v1",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 1000000,
"maxTokens": 384000
}
]
}
}
}
}重要参数:
contextWindow 1000000 上下文窗口:1M tokens(V4 全系)
maxTokens 384000 最大输出:384K tokens(官方上限)
保存并验证
完成以上修改后,保存文件。建议先重启 OpenClaw 网关让配置生效。
重启 OpenClaw 网关:
openclaw gateway restart
验证模型挂载状态:
openclaw models status
在 Web UI 聊天中,输入一条消息测试模型:

或者在命令行输入 openclaw chat,再与 agent 对话:


到此这篇关于2026年Openclaw快速接入DeepSeek V4 Pro的完整教学指南的文章就介绍到这了,更多相关Openclaw接入DeepSeek V4 Pro内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章

Windows部署OpenClaw并接入DeepSeek和飞书的详细流程
本文详细介绍了在Windows系统上安装Git、Python、Node.js及OpenOpenOpenOpenOpenCl最新的OpenOpenOpenCl在内的基础软件,接着配置了OpenOpenopenCl的基础环境,文后还提供了2026-04-14
本文介绍如何在 OpenClaw 中配置 DeepSeek API,通过 OpenAI 兼容接口使用 deepseek-reasoner(R1 推理模型),配置完成后,OpenClaw 的 Agent 将默认调用 DeepSeek 进行推2026-03-20
本文介绍了如何在OpenClaw中配置DeepSeek API,通过 OpenAI 兼容接口使用 deepseek-reasoner(R1 推理模型),配置完成后,OpenClaw 的 Agent 将默认调用 DeepSeek 进行推理2026-03-18
OpenClaw使用DeepSeek官方API_KEY配置超详细教程
近期 OpenClaw突然火了,但是网上居然没有在openclaw配置deepseek官方apikey的相关教程,所以下面这篇文章主要介绍了OpenClaw使用DeepSeek官方API_KEY配置的相关资料,文中将2026-03-09
阿里云CentOS上如何使用Docker部署OpenClaw并接入百炼大模型
文章主要讲述了作者在阿里云服务器上搭建OpenClaw的过程,选择了阿里云百炼大模型并使用了免费额度,文中详细介绍了环境准备步骤,包括安装Docker和DockerCompose,以及配置Doc2026-04-15
openclaw使用llama.cpp本地大模型部署完整步骤
llama.cpp 是当前开源大模型本地化部署领域最具代表性和实用价值的轻量级推理框架之一,其核心设计理念是极致精简、跨平台兼容、零依赖运行,这篇文章主要介绍了openclaw使2026-04-15
OpenClaw接入飞书机器人的完整教程(Docker部署版)
本教程基于 Docker 部署的 OpenClaw 环境编写,所有命令都已适配 Docker 容器化场景,如果你尚未部署 OpenClaw,请先完成基础部署,感兴趣的小伙伴可以跟随小编一起学习一2026-04-10
OpenClaw 完整配置教程:模型接入与通讯渠道对接全流程详解
本文介绍了OpenClaw的两种配置模式、自定义大模型接入全流程及通讯软件对接方法,Onboard模式适合快速配置主流模型,Dashboard模式支持自定义模型接入与可视化管理,感兴趣的2026-04-08
这篇文章主要为大家介绍了如何在 OpenClaw 中配置本地 Ollama 服务,Ollama 是一个开源的本地大语言模型运行框架,支持在本地机器上运行多种开源模型,如 Llama、DeepSeek、2026-04-03










最新评论