通常位于以下路径

openclaw openclaw中文博客 3

配置文件设置

主要配置文件位置

# 或项目目录中
/path/to/openclaw/config/settings.yaml

配置示例

# config.yaml 远程模型配置
model:
  provider: "openai"  # 支持的供应商:openai, anthropic, azure, custom
  api_key: "${OPENAI_API_KEY}"  # 建议使用环境变量
  # OpenAI 配置
  openai:
    base_url: "https://api.openai.com/v1"
    model: "gpt-4"
    timeout: 30
    max_tokens: 2048
  # 或 Anthropic 配置
  anthropic:
    base_url: "https://api.anthropic.com"
    model: "claude-3-opus"
  # 或自定义模型端点
  custom:
    base_url: "http://your-model-server:8000/v1"
    model: "your-custom-model"

环境变量配置

基础环境变量

# 设置API密钥
export OPENAI_API_KEY="sk-your-key-here"
# 或
export ANTHROPIC_API_KEY="your-anthropic-key"
# 可选:自定义端点
export OPENAI_BASE_URL="http://localhost:8000/v1"
# 模型选择
export OPENCLAW_MODEL="gpt-4-turbo"

支持的远程模型服务

1 OpenAI 兼容服务

# 支持以下服务:
# - OpenAI 官方
# - Azure OpenAI
# - 本地部署的 OpenAI 兼容 API(如 FastChat, vLLM, Ollama)
model:
  provider: "openai"
  openai:
    base_url: "http://localhost:8000/v1"  # 本地服务
    # 或 Azure OpenAI
    # base_url: "https://{your-resource}.openai.azure.com/openai/deployments/{deployment-id}"
    model: "gpt-3.5-turbo"
    api_key: "dummy-key"  # 本地服务可能需要任意值

2 Anthropic Claude

model:
  provider: "anthropic"
  anthropic:
    api_key: "${ANTHROPIC_API_KEY}"
    model: "claude-3-sonnet-20240229"

3 自定义HTTP端点

model:
  provider: "custom"
  custom:
    base_url: "https://your-api.example.com"
    endpoint: "/chat/completions"  # 默认值,可选
    headers:
      Authorization: "Bearer ${CUSTOM_API_KEY}"
      Content-Type: "application/json"
    request_format: "openai"  # 或 "anthropic", "custom"

多模型配置

配置文件示例

models:
  # 默认模型
  default: "gpt-4"
  # 模型列表
  available:
    gpt-4:
      provider: "openai"
      model: "gpt-4"
      max_tokens: 8192
    claude-3:
      provider: "anthropic"
      model: "claude-3-opus-20240229"
    local-llama:
      provider: "openai"
      base_url: "http://localhost:8080/v1"
      model: "llama2-13b"
      api_key: "not-needed"
    azure-gpt4:
      provider: "azure"
      base_url: "https://{resource}.openai.azure.com"
      deployment: "gpt-4-deployment"
      api_version: "2023-12-01-preview"

高级配置

代理设置(如需)

network:
  proxy:
    http: "http://proxy-server:port"
    https: "http://proxy-server:port"
  # 或通过环境变量
  # export HTTP_PROXY="http://proxy-server:port"
  # export HTTPS_PROXY="http://proxy-server:port"

超时和重试

model:
  timeout: 120  # 秒
  max_retries: 3
  retry_delay: 1  # 秒
  # 流式响应(如有需要)
  stream: false
  stream_buffer_size: 1024

验证配置

测试连接

# 使用OpenClaw自带的测试命令
openclaw test-connection
# 或使用简单的API测试
openclaw --config ~/.openclaw/config.yaml test-model
# 检查配置
openclaw config show

Python代码测试

from openclaw.client import OpenClawClient
# 初始化客户端
client = OpenClawClient(config_path="~/.openclaw/config.yaml")
# 测试调用
response = client.chat_completion(
    messages=[{"role": "user", "content": "Hello"}]
)
print(response)

故障排除

常见问题

  1. 连接超时

    通常位于以下路径-第1张图片-OpenClaw 中文版 - 真正能做事的 AI

    # 增加超时时间
    timeout: 300
  2. API密钥错误

    # 确认环境变量已设置
    echo $OPENAI_API_KEY
    # 或在配置文件中直接写入(不推荐用于生产环境)
    api_key: "sk-..."
  3. 不支持的自定义端点

    # 尝试切换请求格式
    custom:
      request_format: "anthropic"
      # 或自定义格式转换
      message_conversion: true

安全建议

  1. 使用环境变量存储密钥
  2. 配置文件权限设置
    chmod 600 ~/.openclaw/config.yaml
  3. 定期轮换API密钥
  4. 使用网络隔离(如需要)

根据你的具体使用场景,选择合适的配置方式,如果需要更详细的帮助,请提供具体的错误信息或使用场景。

抱歉,评论功能暂时关闭!