Files
openclaw/docs/zh-CN/concepts/model-providers.md
pomelo dad68d319b Remove Qwen OAuth integration (qwen-portal-auth) (#52709)
* Remove Qwen OAuth integration (qwen-portal-auth)

Qwen OAuth via portal.qwen.ai is being deprecated by the Qwen team due
to traffic impact on their primary Qwen Code user base. Users should
migrate to the officially supported Model Studio (Alibaba Cloud Coding
Plan) provider instead.

Ref: https://github.com/openclaw/openclaw/issues/49557

- Delete extensions/qwen-portal-auth/ plugin entirely
- Remove qwen-portal from onboarding auth choices, provider aliases,
  auto-enable list, bundled plugin defaults, and pricing cache
- Remove Qwen CLI credential sync (external-cli-sync, cli-credentials)
- Remove QWEN_OAUTH_MARKER from model auth markers
- Update docs/providers/qwen.md to redirect to Model Studio
- Update model-providers docs (EN + zh-CN) to remove Qwen OAuth section
- Regenerate config and plugin-sdk baselines
- Update all affected tests

Co-authored-by: Qwen-Coder <qwen-coder@alibabacloud.com>

* Clean up residual qwen-portal references after OAuth removal

* Add migration hint for deprecated qwen-portal OAuth provider

* fix: finish qwen oauth removal follow-up

---------

Co-authored-by: Qwen-Coder <qwen-coder@alibabacloud.com>
Co-authored-by: Frank Yang <frank.ekn@gmail.com>
2026-03-26 16:32:34 +08:00

22 KiB
Raw Blame History

read_when, summary, title, x-i18n
read_when summary title x-i18n
你需要按提供商划分的模型设置参考
你想要模型提供商的示例配置或 CLI 新手引导命令
模型提供商概览,包含示例配置 + CLI 流程 模型提供商
generated_at model provider source_hash source_path workflow
2026-03-16T06:22:52Z gpt-5.4 openai 1b84eea0103a59e77571f82c800c9c0ad9fc554e8c9b2c1fd15c2cc121e7f6b4 concepts/model-providers.md 15

模型提供商

本页介绍的是 LLM/模型提供商(而不是像 WhatsApp/Telegram 这样的聊天渠道)。 有关模型选择规则,请参见 /concepts/models

快速规则

  • 模型引用使用 provider/model(示例:opencode/claude-opus-4-6)。
  • 如果你设置了 agents.defaults.models,它就会成为 allowlist。
  • CLI 辅助命令:openclaw onboardopenclaw models listopenclaw models set <provider/model>
  • 提供商插件可以通过 registerProvider({ catalog }) 注入模型目录; OpenClaw 会在写入 models.json 之前将该输出合并到 models.providers 中。
  • 提供商清单可以声明 providerAuthEnvVars,这样基于通用环境变量的 身份验证探测就不需要加载插件运行时。其余的核心环境变量映射 现在只用于非插件/核心提供商,以及少数通用优先级场景, 例如 Anthropic 以 API 密钥优先的新手引导。
  • 提供商插件还可以通过以下机制接管提供商运行时行为: resolveDynamicModelprepareDynamicModelnormalizeResolvedModelcapabilitiesprepareExtraParamswrapStreamFnformatApiKeyrefreshOAuthbuildAuthDoctorHintisCacheTtlEligiblebuildMissingAuthMessagesuppressBuiltInModelaugmentModelCatalogisBinaryThinkingsupportsXHighThinkingresolveDefaultThinkingLevelisModernModelRefprepareRuntimeAuthresolveUsageAuth,以及 fetchUsageSnapshot

插件接管的提供商行为

提供商插件现在可以接管大多数提供商特定逻辑,而 OpenClaw 保留 通用推理循环。

典型划分:

  • auth[].run / auth[].runNonInteractive:提供商接管 openclaw onboardopenclaw models auth 和无头设置的 新手引导/登录流程
  • wizard.onboarding / wizard.modelPicker:提供商接管新手引导/模型选择器中的身份验证选项标签、 提示和设置条目
  • catalog:提供商出现在 models.providers
  • resolveDynamicModel:提供商接受尚未出现在本地静态 目录中的模型 ID
  • prepareDynamicModel:提供商在重试 动态解析之前需要刷新元数据
  • normalizeResolvedModel:提供商需要重写传输或基础 URL
  • capabilities:提供商发布 transcript/工具/提供商家族的特殊行为
  • prepareExtraParams:提供商为每个模型请求参数提供默认值或进行标准化
  • wrapStreamFn:提供商应用请求头/请求体/模型兼容包装器
  • formatApiKey:提供商将存储的 auth profile 格式化为 传输层预期的运行时 apiKey 字符串
  • refreshOAuth:当共享的 pi-ai 刷新器不足时,由提供商接管 OAuth 刷新
  • buildAuthDoctorHint:当 OAuth 刷新 失败时,提供商附加修复指引
  • isCacheTtlEligible:提供商决定哪些上游模型 ID 支持 prompt-cache TTL
  • buildMissingAuthMessage:提供商用提供商特定的恢复提示 替换通用 auth-store 错误
  • suppressBuiltInModel:提供商隐藏过时的上游条目,并且可以在直接解析失败时返回 供应商自有错误
  • augmentModelCatalog:提供商在 发现和配置合并后追加合成/最终目录条目
  • isBinaryThinking:提供商接管二元开/关 thinking UX
  • supportsXHighThinking:提供商让选定模型支持 xhigh
  • resolveDefaultThinkingLevel:提供商接管某个 模型家族默认 /think 策略
  • isModernModelRef:提供商接管 live/smoke 首选模型匹配
  • prepareRuntimeAuth:提供商将已配置凭证转换为短期 运行时令牌
  • resolveUsageAuth:提供商为 /usage 以及相关状态/报告界面解析使用量/配额凭证
  • fetchUsageSnapshot:提供商接管使用量端点的获取/解析,而核心仍负责摘要外壳和格式化

当前内置示例:

  • anthropicClaude 4.6 前向兼容回退、身份验证修复提示、使用量 端点获取,以及 cache-TTL/提供商家族元数据
  • openrouter:直通模型 ID、请求包装器、提供商能力 提示,以及 cache-TTL 策略
  • github-copilot:新手引导/设备登录、前向兼容模型回退、 Claude-thinking transcript 提示、运行时令牌交换,以及使用量端点 获取
  • openaiGPT-5.4 前向兼容回退、直接 OpenAI 传输 标准化、Codex 感知的缺失身份验证提示、Spark 抑制、合成 OpenAI/Codex 目录条目、thinking/live-model 策略,以及 提供商家族元数据
  • googlegoogle-gemini-cliGemini 3.1 前向兼容回退和 现代模型匹配Gemini CLI OAuth 还接管 auth-profile 令牌 格式化、usage-token 解析,以及面向使用量界面的配额端点获取
  • moonshot:共享传输、插件接管的 thinking 负载标准化
  • kilocode共享传输、插件接管的请求头、reasoning 负载 标准化、Gemini transcript 提示,以及 cache-TTL 策略
  • zaiGLM-5 前向兼容回退、tool_stream 默认值、cache-TTL 策略、二元 thinking/live-model 策略,以及使用量身份验证 + 配额获取
  • mistralopencodeopencode-go:插件接管的能力元数据
  • bytepluscloudflare-ai-gatewayhuggingfacekimi-codingmodelstudionvidiaqianfansynthetictogethervenicevercel-ai-gatewayvolcengine:仅插件接管的目录
  • minimaxxiaomi:插件接管的目录,以及使用量身份验证/快照逻辑

内置的 openai 插件现在接管两个提供商 IDopenaiopenai-codex

以上涵盖了仍适合 OpenClaw 常规传输的提供商。若某个提供商 需要完全自定义的请求执行器,那就是另一个更深层的扩展接口。

API 密钥轮换

  • 支持为选定提供商进行通用提供商轮换。
  • 通过以下方式配置多个密钥:
    • OPENCLAW_LIVE_<PROVIDER>_KEY(单个 live 覆盖,最高优先级)
    • <PROVIDER>_API_KEYS(逗号或分号分隔列表)
    • <PROVIDER>_API_KEY(主密钥)
    • <PROVIDER>_API_KEY_*(编号列表,例如 <PROVIDER>_API_KEY_1
  • 对于 Google 提供商,还会包含 GOOGLE_API_KEY 作为回退。
  • 密钥选择顺序会保留优先级并对值去重。
  • 仅在速率限制响应时才会使用下一个密钥重试请求(例如 429rate_limitquotaresource exhausted)。
  • 非速率限制失败会立即失败;不会尝试密钥轮换。
  • 当所有候选密钥都失败时,将返回最后一次尝试的最终错误。

内置提供商pi-ai 目录)

OpenClaw 附带 piai 目录。这些提供商不需要 models.providers 配置;只需设置身份验证 + 选择一个模型。

OpenAI

  • 提供商:openai
  • 身份验证:OPENAI_API_KEY
  • 可选轮换:OPENAI_API_KEYSOPENAI_API_KEY_1OPENAI_API_KEY_2,以及 OPENCLAW_LIVE_OPENAI_KEY(单个覆盖)
  • 示例模型:openai/gpt-5.4openai/gpt-5.4-pro
  • CLIopenclaw onboard --auth-choice openai-api-key
  • 默认传输为 auto(优先 WebSocketSSE 回退)
  • 通过 agents.defaults.models["openai/<model>"].params.transport 按模型覆盖("sse""websocket""auto"
  • OpenAI Responses WebSocket 预热默认通过 params.openaiWsWarmup 启用(true/false
  • 可通过 agents.defaults.models["openai/<model>"].params.serviceTier 启用 OpenAI 优先处理
  • 可通过 agents.defaults.models["<provider>/<model>"].params.fastMode 为每个模型启用 OpenAI 快速模式
  • openai/gpt-5.3-codex-spark 在 OpenClaw 中被有意抑制,因为 live OpenAI API 会拒绝它Spark 被视为仅限 Codex
{
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

Anthropic

  • 提供商:anthropic
  • 身份验证:ANTHROPIC_API_KEYclaude setup-token
  • 可选轮换:ANTHROPIC_API_KEYSANTHROPIC_API_KEY_1ANTHROPIC_API_KEY_2,以及 OPENCLAW_LIVE_ANTHROPIC_KEY(单个覆盖)
  • 示例模型:anthropic/claude-opus-4-6
  • CLIopenclaw onboard --auth-choice token(粘贴 setup-tokenopenclaw models auth paste-token --provider anthropic
  • 直接 API 密钥模型支持共享的 /fast 开关和 params.fastModeOpenClaw 会将其映射到 Anthropic service_tierautostandard_only
  • 策略说明setup-token 支持属于技术兼容性Anthropic 过去曾阻止某些在 Claude Code 之外的订阅用法。请核实当前 Anthropic 条款,并根据你的风险承受能力做出决定。
  • 建议:相比订阅 setup-token 身份验证Anthropic API 密钥身份验证是更安全、也更推荐的路径。
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI CodeCodex

  • 提供商:openai-codex
  • 身份验证OAuthChatGPT
  • 示例模型:openai-codex/gpt-5.4
  • CLIopenclaw onboard --auth-choice openai-codexopenclaw models auth login --provider openai-codex
  • 默认传输为 auto(优先 WebSocketSSE 回退)
  • 通过 agents.defaults.models["openai-codex/<model>"].params.transport 按模型覆盖("sse""websocket""auto"
  • 与直接 openai/* 共享相同的 /fast 开关和 params.fastMode 配置
  • 当 Codex OAuth 目录暴露它时,openai-codex/gpt-5.3-codex-spark 仍然可用;取决于 entitlement
  • 策略说明OpenAI Codex OAuth 明确支持 OpenClaw 这样的外部工具/工作流。
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

OpenCode

  • 身份验证:OPENCODE_API_KEY(或 OPENCODE_ZEN_API_KEY
  • Zen 运行时提供商:opencode
  • Go 运行时提供商:opencode-go
  • 示例模型:opencode/claude-opus-4-6opencode-go/kimi-k2.5
  • CLIopenclaw onboard --auth-choice opencode-zenopenclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google GeminiAPI 密钥)

  • 提供商:google
  • 身份验证:GEMINI_API_KEY
  • 可选轮换:GEMINI_API_KEYSGEMINI_API_KEY_1GEMINI_API_KEY_2GOOGLE_API_KEY 回退,以及 OPENCLAW_LIVE_GEMINI_KEY(单个覆盖)
  • 示例模型:google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • 兼容性:使用 google/gemini-3.1-flash-preview 的旧版 OpenClaw 配置会被标准化为 google/gemini-3-flash-preview
  • CLIopenclaw onboard --auth-choice gemini-api-key

Google Vertex 和 Gemini CLI

  • 提供商:google-vertexgoogle-gemini-cli
  • 身份验证Vertex 使用 gcloud ADCGemini CLI 使用其 OAuth 流程
  • 注意OpenClaw 中的 Gemini CLI OAuth 是非官方集成。一些用户报告在使用第三方客户端后遭遇 Google 账号限制。请查看 Google 条款,如果你决定继续,建议使用非关键账号。
  • Gemini CLI OAuth 作为内置 google 插件的一部分提供。
    • 启用:openclaw plugins enable google
    • 登录:openclaw models auth login --provider google-gemini-cli --set-default
    • 注意:你不需要将客户端 ID 或密钥粘贴到 openclaw.json 中。CLI 登录流程会将 令牌存储在 Gateway 网关主机上的 auth profile 中。

Z.AIGLM

  • 提供商:zai
  • 身份验证:ZAI_API_KEY
  • 示例模型:zai/glm-5
  • CLIopenclaw onboard --auth-choice zai-api-key
    • 别名:z.ai/*z-ai/* 会标准化为 zai/*

Vercel AI Gateway

  • 提供商:vercel-ai-gateway
  • 身份验证:AI_GATEWAY_API_KEY
  • 示例模型:vercel-ai-gateway/anthropic/claude-opus-4.6
  • CLIopenclaw onboard --auth-choice ai-gateway-api-key

Kilo Gateway

  • 提供商:kilocode
  • 身份验证:KILOCODE_API_KEY
  • 示例模型:kilocode/anthropic/claude-opus-4.6
  • CLIopenclaw onboard --kilocode-api-key <key>
  • 基础 URLhttps://api.kilo.ai/api/gateway/
  • 扩展后的内置目录包括 GLM-5 Free、MiniMax M2.5 Free、GPT-5.2、Gemini 3 Pro Preview、Gemini 3 Flash Preview、Grok Code Fast 1 和 Kimi K2.5。

设置详情请参见 /providers/kilocode

其他内置提供商插件

  • OpenRouteropenrouterOPENROUTER_API_KEY
  • 示例模型:openrouter/anthropic/claude-sonnet-4-5
  • Kilo GatewaykilocodeKILOCODE_API_KEY
  • 示例模型:kilocode/anthropic/claude-opus-4.6
  • MiniMaxminimaxMINIMAX_API_KEY
  • MoonshotmoonshotMOONSHOT_API_KEY
  • Kimi Codingkimi-codingKIMI_API_KEYKIMICODE_API_KEY
  • QianfanqianfanQIANFAN_API_KEY
  • Model StudiomodelstudioMODELSTUDIO_API_KEY
  • NVIDIAnvidiaNVIDIA_API_KEY
  • TogethertogetherTOGETHER_API_KEY
  • VeniceveniceVENICE_API_KEY
  • XiaomixiaomiXIAOMI_API_KEY
  • Vercel AI Gatewayvercel-ai-gatewayAI_GATEWAY_API_KEY
  • Hugging Face InferencehuggingfaceHUGGINGFACE_HUB_TOKENHF_TOKEN
  • Cloudflare AI Gatewaycloudflare-ai-gatewayCLOUDFLARE_AI_GATEWAY_API_KEY
  • VolcenginevolcengineVOLCANO_ENGINE_API_KEY
  • BytePlusbyteplusBYTEPLUS_API_KEY
  • xAIxaiXAI_API_KEY
  • MistralmistralMISTRAL_API_KEY
  • 示例模型:mistral/mistral-large-latest
  • CLIopenclaw onboard --auth-choice mistral-api-key
  • GroqgroqGROQ_API_KEY
  • CerebrascerebrasCEREBRAS_API_KEY
    • Cerebras 上的 GLM 模型使用 ID zai-glm-4.7zai-glm-4.6
    • OpenAI 兼容基础 URLhttps://api.cerebras.ai/v1
  • GitHub Copilotgithub-copilotCOPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN
  • Hugging Face Inference 示例模型:huggingface/deepseek-ai/DeepSeek-R1CLIopenclaw onboard --auth-choice huggingface-api-key。请参见 Hugging FaceInference

通过 models.providers 配置的提供商(自定义/基础 URL

使用 models.providers(或 models.json)来添加自定义提供商或 兼容 OpenAI/Anthropic 的代理。

下面许多内置提供商插件已经发布了默认目录。 只有在你希望覆盖默认 基础 URL、请求头或模型列表时才使用显式 models.providers.<id> 条目。

Moonshot AIKimi

Moonshot 使用兼容 OpenAI 的端点,因此将其配置为自定义提供商:

  • 提供商:moonshot
  • 身份验证:MOONSHOT_API_KEY
  • 示例模型:moonshot/kimi-k2.5

Kimi K2 模型 ID

  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-0905-preview
  • moonshot/kimi-k2-turbo-preview
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

Kimi Coding

Kimi Coding 使用 Moonshot AI 的 Anthropic 兼容端点:

  • 提供商:kimi-coding
  • 身份验证:KIMI_API_KEY
  • 示例模型:kimi-coding/k2p5
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi-coding/k2p5" } },
  },
}

Volcano EngineDoubao

Volcano Engine火山引擎为中国用户提供对 Doubao 和其他模型的访问。

  • 提供商:volcengine(编码:volcengine-plan
  • 身份验证:VOLCANO_ENGINE_API_KEY
  • 示例模型:volcengine/doubao-seed-1-8-251228
  • CLIopenclaw onboard --auth-choice volcengine-api-key
{
  agents: {
    defaults: { model: { primary: "volcengine/doubao-seed-1-8-251228" } },
  },
}

可用模型:

  • volcengine/doubao-seed-1-8-251228Doubao Seed 1.8
  • volcengine/doubao-seed-code-preview-251028
  • volcengine/kimi-k2-5-260127Kimi K2.5
  • volcengine/glm-4-7-251222GLM 4.7
  • volcengine/deepseek-v3-2-251201DeepSeek V3.2 128K

编码模型(volcengine-plan

  • volcengine-plan/ark-code-latest
  • volcengine-plan/doubao-seed-code
  • volcengine-plan/kimi-k2.5
  • volcengine-plan/kimi-k2-thinking
  • volcengine-plan/glm-4.7

BytePlus国际版

BytePlus ARK 为国际用户提供与 Volcano Engine 相同模型的访问。

  • 提供商:byteplus(编码:byteplus-plan
  • 身份验证:BYTEPLUS_API_KEY
  • 示例模型:byteplus/seed-1-8-251228
  • CLIopenclaw onboard --auth-choice byteplus-api-key
{
  agents: {
    defaults: { model: { primary: "byteplus/seed-1-8-251228" } },
  },
}

可用模型:

  • byteplus/seed-1-8-251228Seed 1.8
  • byteplus/kimi-k2-5-260127Kimi K2.5
  • byteplus/glm-4-7-251222GLM 4.7

编码模型(byteplus-plan

  • byteplus-plan/ark-code-latest
  • byteplus-plan/doubao-seed-code
  • byteplus-plan/kimi-k2.5
  • byteplus-plan/kimi-k2-thinking
  • byteplus-plan/glm-4.7

Synthetic

Synthetic 通过 synthetic 提供商提供兼容 Anthropic 的模型:

  • 提供商:synthetic
  • 身份验证:SYNTHETIC_API_KEY
  • 示例模型:synthetic/hf:MiniMaxAI/MiniMax-M2.5
  • CLIopenclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
      },
    },
  },
}

MiniMax

MiniMax 通过 models.providers 配置,因为它使用自定义端点:

  • MiniMax兼容 Anthropic--auth-choice minimax-api
  • 身份验证:MINIMAX_API_KEY

设置详情、模型选项和配置片段请参见 /providers/minimax

Ollama

Ollama 作为内置提供商插件提供,并使用 Ollama 的原生 API

# 安装 Ollama然后拉取一个模型
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}

当你通过 OLLAMA_API_KEY 选择加入时Ollama 会在本地 http://127.0.0.1:11434 被检测到,内置提供商插件会将 Ollama 直接添加到 openclaw onboard 和模型选择器中。有关新手引导、云端/本地模式和自定义配置,请参见 /providers/ollama

vLLM

vLLM 作为内置提供商插件提供,用于本地/自托管的 OpenAI 兼容 服务器:

  • 提供商:vllm
  • 身份验证:可选(取决于你的服务器)
  • 默认基础 URLhttp://127.0.0.1:8000/v1

要选择加入本地自动发现(如果你的服务器不强制身份验证,则任意值均可):

export VLLM_API_KEY="vllm-local"

然后设置一个模型(替换为 /v1/models 返回的某个 ID

{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}

详情请参见 /providers/vllm

SGLang

SGLang 作为内置提供商插件提供,用于高速自托管 OpenAI 兼容服务器:

  • 提供商:sglang
  • 身份验证:可选(取决于你的服务器)
  • 默认基础 URLhttp://127.0.0.1:30000/v1

要选择加入本地自动发现(如果你的服务器不 强制身份验证,则任意值均可):

export SGLANG_API_KEY="sglang-local"

然后设置一个模型(替换为 /v1/models 返回的某个 ID

{
  agents: {
    defaults: { model: { primary: "sglang/your-model-id" } },
  },
}

详情请参见 /providers/sglang

本地代理LM Studio、vLLM、LiteLLM 等)

示例(兼容 OpenAI

{
  agents: {
    defaults: {
      model: { primary: "lmstudio/minimax-m2.5-gs32" },
      models: { "lmstudio/minimax-m2.5-gs32": { alias: "Minimax" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "LMSTUDIO_KEY",
        api: "openai-completions",
        models: [
          {
            id: "minimax-m2.5-gs32",
            name: "MiniMax M2.5",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

说明:

  • 对于自定义提供商,reasoninginputcostcontextWindowmaxTokens 是可选的。 如果省略OpenClaw 默认使用:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • 建议:设置与你的代理/模型限制匹配的显式值。
  • 对于非原生端点上的 api: "openai-completions"(任何主机不是 api.openai.com 的非空 baseUrlOpenClaw 会强制设置 compat.supportsDeveloperRole: false,以避免提供商因不支持 developer 角色而返回 400 错误。
  • 如果 baseUrl 为空/省略OpenClaw 会保留默认 OpenAI 行为(即解析为 api.openai.com)。
  • 出于安全考虑,在非原生 openai-completions 端点上,显式的 compat.supportsDeveloperRole: true 仍会被覆盖。

CLI 示例

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list

另请参见:/gateway/configuration 了解完整配置示例。