OpenClaw 用上 Azure GPT-5.4

GPT-5.4 刚出来的时候,我的第一感觉就是:这东西挺适合塞进个人智能体里。
像 OpenClaw 这类个人 Agent,更看重的不是某个单点能力,而是模型在长上下文、持续对话、工具调用和复杂任务拆解这些场景里的稳定性。GPT-5.4 至少从定位上看,很适合这个方向。
但问题很快出现:OpenClaw 原生并不丝滑支持 Azure provider。
一开始我参考了 OpenClaw 官方讨论:
讨论里的配置方向并不复杂:baseUrl 指向 Azure 的 v1 endpoint,关闭默认 Authorization 头,改用 Azure 的 api-key 认证,模型 id 配成 deployment name。
但按这个方向配完后,实际还是报错:
404 resources not found为了确认问题到底出在配置还是实现层,我又做了两步排查:
- 用 DeepWiki 看 OpenClaw 相关 provider 的实现逻辑
- 把 OpenClaw 源码 clone 到本地,用 OpenCode 分析 Azure 相关调用链
结论是:没有找到一个能稳定闭环的问题点。
在换方案之前,我先用 curl 直接打 Azure 接口,确认三件事没问题:
- endpoint 正确
- deployment name 正确
- api key 正确
curl -X POST "https://<resource>.openai.azure.com/openai/v1/responses" \
-H "Content-Type: application/json" \
-H "api-key: <AZURE_API_KEY>" \
-d '{"model":"gpt-5.4","input":[{"role":"user","content":"hello"}]}'
# model 字段对应 Azure 中的 deployment name这一步很重要。因为如果 curl 都不通,后面无论配 OpenClaw 还是配 LiteLLM,都是在放大错误。
我本地最后保留下来的 OpenClaw 和 LiteLLM 关键配置如下。
~/.openclaw/openclaw.json
{
"models": {
"providers": {
"litellm": {
"baseUrl": "http://localhost:4000",
"api": "openai-completions",
"models": [
{
"id": "gpt-5.4", // 这里的 id 需要与 LiteLLM 中的 model_name 保持一致
"name": "GPT-5.4",
"reasoning": true,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 272000,
"maxTokens": 16384
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "litellm/gpt-5.4" // provider 标识 litellm + LiteLLM 的 model_name gpt-5.4
},
"models": {
"litellm/gpt-5.4": {} // 这里的 key 由 provider 标识 litellm 与 LiteLLM 的 model_name gpt-5.4 组成
}
}
}
}~/workspace/litellm/litellm_config.yaml
model_list:
- model_name: gpt-5.4
litellm_params:
model: azure/gpt-5.4 # azure/ 后的 gpt-5.4 对应 Azure 中的 deployment name
api_base: https://<resource>.openai.azure.com
api_version: "2025-03-01-preview"
api_key: <api key>
drop_params: true
general_settings:
store_model_in_db: false
litellm_settings:
drop_params: true确认 Azure 本身可用后,我放弃让 OpenClaw 直连 Azure,改成:
OpenClaw -> LiteLLM -> Azure GPT-5.4最后的结果很直接:原生方案没跑通,LiteLLM 跑通了。
所以如果你也想把 Azure GPT-5.4 接进 OpenClaw,我的建议是:
- 可以先试 discussion #13307 的原生配置
- 如果卡在
404 resources not found,别耗太久 - 先用
curl验证 Azure 请求 - 然后直接走 LiteLLM
至少在我这里,这是目前最省事、也最稳定的做法。
至于 OpenClaw 接入 GPT-5.4 之后效果如何,我只能说,它现在已经替代了 Kimi K2.5,成了我 OpenClaw 的主力模型。