OpenClaw 用上 Azure GPT-5.4

OpenClaw 用上 Azure GPT-5.4

March 8, 2026

cover

GPT-5.4 刚出来的时候,我的第一感觉就是:这东西挺适合塞进个人智能体里。

像 OpenClaw 这类个人 Agent,更看重的不是某个单点能力,而是模型在长上下文、持续对话、工具调用和复杂任务拆解这些场景里的稳定性。GPT-5.4 至少从定位上看,很适合这个方向。

但问题很快出现:OpenClaw 原生并不丝滑支持 Azure provider。

一开始我参考了 OpenClaw 官方讨论:

讨论里的配置方向并不复杂:baseUrl 指向 Azure 的 v1 endpoint,关闭默认 Authorization 头,改用 Azure 的 api-key 认证,模型 id 配成 deployment name。

但按这个方向配完后,实际还是报错:

404 resources not found

为了确认问题到底出在配置还是实现层,我又做了两步排查:

  • 用 DeepWiki 看 OpenClaw 相关 provider 的实现逻辑
  • 把 OpenClaw 源码 clone 到本地,用 OpenCode 分析 Azure 相关调用链

结论是:没有找到一个能稳定闭环的问题点。

在换方案之前,我先用 curl 直接打 Azure 接口,确认三件事没问题:

  • endpoint 正确
  • deployment name 正确
  • api key 正确
curl -X POST "https://<resource>.openai.azure.com/openai/v1/responses" \
  -H "Content-Type: application/json" \
  -H "api-key: <AZURE_API_KEY>" \
  -d '{"model":"gpt-5.4","input":[{"role":"user","content":"hello"}]}'
# model 字段对应 Azure 中的 deployment name

这一步很重要。因为如果 curl 都不通,后面无论配 OpenClaw 还是配 LiteLLM,都是在放大错误。

我本地最后保留下来的 OpenClaw 和 LiteLLM 关键配置如下。

~/.openclaw/openclaw.json

{
  "models": {
    "providers": {
      "litellm": {
        "baseUrl": "http://localhost:4000",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-5.4", // 这里的 id 需要与 LiteLLM 中的 model_name 保持一致
            "name": "GPT-5.4",
            "reasoning": true,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 272000,
            "maxTokens": 16384
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "litellm/gpt-5.4" // provider 标识 litellm + LiteLLM 的 model_name gpt-5.4
      },
      "models": {
        "litellm/gpt-5.4": {} // 这里的 key 由 provider 标识 litellm 与 LiteLLM 的 model_name gpt-5.4 组成
      }
    }
  }
}

~/workspace/litellm/litellm_config.yaml

model_list:
  - model_name: gpt-5.4
    litellm_params:
      model: azure/gpt-5.4  # azure/ 后的 gpt-5.4 对应 Azure 中的 deployment name
      api_base: https://<resource>.openai.azure.com
      api_version: "2025-03-01-preview"
      api_key: <api key>
      drop_params: true

general_settings:
  store_model_in_db: false

litellm_settings:
  drop_params: true

确认 Azure 本身可用后,我放弃让 OpenClaw 直连 Azure,改成:

OpenClaw -> LiteLLM -> Azure GPT-5.4

最后的结果很直接:原生方案没跑通,LiteLLM 跑通了。

所以如果你也想把 Azure GPT-5.4 接进 OpenClaw,我的建议是:

  • 可以先试 discussion #13307 的原生配置
  • 如果卡在 404 resources not found,别耗太久
  • 先用 curl 验证 Azure 请求
  • 然后直接走 LiteLLM

至少在我这里,这是目前最省事、也最稳定的做法。

至于 OpenClaw 接入 GPT-5.4 之后效果如何,我只能说,它现在已经替代了 Kimi K2.5,成了我 OpenClaw 的主力模型。

最后更新于