配置文件设置
主要配置文件位置
# 或项目目录中
/path/to/openclaw/config/settings.yaml
配置示例
# config.yaml 远程模型配置
model:
provider: "openai" # 支持的供应商:openai, anthropic, azure, custom
api_key: "${OPENAI_API_KEY}" # 建议使用环境变量
# OpenAI 配置
openai:
base_url: "https://api.openai.com/v1"
model: "gpt-4"
timeout: 30
max_tokens: 2048
# 或 Anthropic 配置
anthropic:
base_url: "https://api.anthropic.com"
model: "claude-3-opus"
# 或自定义模型端点
custom:
base_url: "http://your-model-server:8000/v1"
model: "your-custom-model"
环境变量配置
基础环境变量
# 设置API密钥 export OPENAI_API_KEY="sk-your-key-here" # 或 export ANTHROPIC_API_KEY="your-anthropic-key" # 可选:自定义端点 export OPENAI_BASE_URL="http://localhost:8000/v1" # 模型选择 export OPENCLAW_MODEL="gpt-4-turbo"
支持的远程模型服务
1 OpenAI 兼容服务
# 支持以下服务:
# - OpenAI 官方
# - Azure OpenAI
# - 本地部署的 OpenAI 兼容 API(如 FastChat, vLLM, Ollama)
model:
provider: "openai"
openai:
base_url: "http://localhost:8000/v1" # 本地服务
# 或 Azure OpenAI
# base_url: "https://{your-resource}.openai.azure.com/openai/deployments/{deployment-id}"
model: "gpt-3.5-turbo"
api_key: "dummy-key" # 本地服务可能需要任意值
2 Anthropic Claude
model:
provider: "anthropic"
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
model: "claude-3-sonnet-20240229"
3 自定义HTTP端点
model:
provider: "custom"
custom:
base_url: "https://your-api.example.com"
endpoint: "/chat/completions" # 默认值,可选
headers:
Authorization: "Bearer ${CUSTOM_API_KEY}"
Content-Type: "application/json"
request_format: "openai" # 或 "anthropic", "custom"
多模型配置
配置文件示例
models:
# 默认模型
default: "gpt-4"
# 模型列表
available:
gpt-4:
provider: "openai"
model: "gpt-4"
max_tokens: 8192
claude-3:
provider: "anthropic"
model: "claude-3-opus-20240229"
local-llama:
provider: "openai"
base_url: "http://localhost:8080/v1"
model: "llama2-13b"
api_key: "not-needed"
azure-gpt4:
provider: "azure"
base_url: "https://{resource}.openai.azure.com"
deployment: "gpt-4-deployment"
api_version: "2023-12-01-preview"
高级配置
代理设置(如需)
network:
proxy:
http: "http://proxy-server:port"
https: "http://proxy-server:port"
# 或通过环境变量
# export HTTP_PROXY="http://proxy-server:port"
# export HTTPS_PROXY="http://proxy-server:port"
超时和重试
model: timeout: 120 # 秒 max_retries: 3 retry_delay: 1 # 秒 # 流式响应(如有需要) stream: false stream_buffer_size: 1024
验证配置
测试连接
# 使用OpenClaw自带的测试命令 openclaw test-connection # 或使用简单的API测试 openclaw --config ~/.openclaw/config.yaml test-model # 检查配置 openclaw config show
Python代码测试
from openclaw.client import OpenClawClient
# 初始化客户端
client = OpenClawClient(config_path="~/.openclaw/config.yaml")
# 测试调用
response = client.chat_completion(
messages=[{"role": "user", "content": "Hello"}]
)
print(response)
故障排除
常见问题
-
连接超时

# 增加超时时间 timeout: 300
-
API密钥错误
# 确认环境变量已设置 echo $OPENAI_API_KEY # 或在配置文件中直接写入(不推荐用于生产环境) api_key: "sk-..."
-
不支持的自定义端点
# 尝试切换请求格式 custom: request_format: "anthropic" # 或自定义格式转换 message_conversion: true
安全建议
- 使用环境变量存储密钥
- 配置文件权限设置
chmod 600 ~/.openclaw/config.yaml
- 定期轮换API密钥
- 使用网络隔离(如需要)
根据你的具体使用场景,选择合适的配置方式,如果需要更详细的帮助,请提供具体的错误信息或使用场景。
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。