环境验证与初始化
在开始使用前,请确认安装是否成功,并激活环境。

-
激活环境:
- 如果您使用了 Conda 环境(推荐),请先激活它。
conda activate openclaw_env # 替换为您的实际环境名
- 如果您使用了 Python 虚拟环境
venv,请激活:# Linux/macOS source <venv路径>/bin/activate # Windows <venv路径>\Scripts\activate
- 如果您使用了 Conda 环境(推荐),请先激活它。
-
验证安装:
python -c "import openclaw; print(openclaw.__version__)" # 如果包名不同,请替换
如果能够成功输出版本号,说明核心库安装正确。
-
检查依赖服务:
- CUDA/cuDNN(如需GPU加速):运行
nvidia-smi查看驱动和GPU状态。 - 推理后端(如 Ollama, vLLM, Transformers):根据您要运行的模型类型,确保对应的后端服务已安装并运行,使用Ollama:
ollama serve &
- CUDA/cuDNN(如需GPU加速):运行
第二步:核心配置文件设置
OpenClaw通常通过一个中心化的配置文件(如 config.yaml、settings.toml 或 .env 文件)进行管理。首次使用,强烈建议从模板创建并修改。
-
定位配置文件:
- 通常位于
~/.openclaw/config.yaml或项目根目录下的configs/文件夹内。 - 如果找不到,请查看项目文档,或运行
openclaw --help看是否有生成默认配置的命令。
- 通常位于
-
关键配置项详解: 打开配置文件,您可能需要设置以下部分:
# 示例 config.yaml 结构 model: default_provider: "ollama" # 或 "openai", "vllm", "hf" (HuggingFace) default_model: "qwen2.5:7b" # 您本地的模型名称,或在线API的模型ID cache_dir: "~/.cache/openclaw/models" # 模型下载缓存路径 # 如果使用本地推理(如Ollama) ollama: base_url: "http://localhost:11434" # Ollama 服务地址 # 如果使用在线API(如OpenAI) openai: api_key: "${OPENAI_API_KEY}" # 建议从环境变量读取 base_url: "https://api.openai.com/v1" # 或代理地址 # 如果使用自有vLLM服务器 vllm: api_url: "http://localhost:8000/v1" api_key: "your-vllm-api-key-if-any" tools: # 工具配置,例如网络搜索、代码执行等 search: enable: true provider: "duckduckgo" # 或 "serpapi", "tavily" api_key: "${SERPAPI_KEY}" system: log_level: "INFO" # DEBUG, INFO, WARNING, ERROR workspace: "./workspace" # 项目工作目录 -
安全提醒:
- 切勿将包含API密钥的配置文件提交到Git等版本控制系统!
- 最佳实践是将密钥存储在环境变量中,在配置文件中引用,如
api_key: "${API_KEY_NAME}"。 - 使用
.gitignore忽略您的个人配置文件。
第三步:基础使用
配置完成后,您可以通过多种方式使用OpenClaw。
-
命令行界面(CLI): 这是最直接的方式,通常有一个主命令,
openclaw或claw。# 1. 对话模式(与AI进行多轮交互) openclaw chat # 2. 单次查询 openclaw ask "用Python写一个快速排序函数" # 3. 使用特定模型 openclaw ask --model llama3.2:1b "解释一下引力波" # 4. 使用已配置的工具(如联网搜索) openclaw ask --web-search "今天北京天气如何?" # 5. 处理文件 openclaw process --input my_doc.pdf --task "总结摘要"
-
作为Python库使用: 您可以在自己的Python脚本中调用OpenClaw。
from openclaw import OpenClawClient # 初始化客户端,会自动读取您的配置文件 client = OpenClawClient() # 进行对话 response = client.chat.completions.create( model="qwen2.5:7b", messages=[{"role": "user", "content": "你好,请介绍一下你自己。"}] ) print(response.choices[0].message.content) # 或使用更简化的接口 answer = client.ask("法国的首都是什么?", use_tools=True) print(answer) -
Web界面/API服务: 部分版本可能提供Web UI或可以启动为API服务器。
# 启动Web图形界面(如果提供) openclaw webui # 或启动为REST API服务(供其他程序调用) openclaw serve --host 0.0.0.0 --port 8000
然后在浏览器中访问
http://localhost:8000(或对应端口)。
第四步:进阶配置与优化
-
多模型管理:
- 在配置文件中为不同任务定义不同的模型配置,并通过别名调用。
model_profiles: fast: {provider: "ollama", model: "llama3.2:1b"} smart: {provider: "openai", model: "gpt-4o-mini"} code: {provider: "vllm", model: "codellama/CodeLlama-7b-Instruct-hf"}openclaw ask --profile code "帮我修复这段Python代码的bug"
- 在配置文件中为不同任务定义不同的模型配置,并通过别名调用。
-
自定义工具/插件:
- 查阅开发者文档,了解如何编写自己的工具(如连接内部数据库、调用特定API),并将其添加到
tools配置下。
- 查阅开发者文档,了解如何编写自己的工具(如连接内部数据库、调用特定API),并将其添加到
-
性能调优:
- GPU内存:对于本地大模型,在模型加载参数中可设置
gpu_memory_utilization、max_model_len(vLLM)等。 - 上下文长度:根据模型能力,在配置或请求中调整
max_tokens或context_window。 - 批处理:如进行批量文本处理,利用客户端的批处理功能提升效率。
- GPU内存:对于本地大模型,在模型加载参数中可设置
第五步:常见问题排查
| 问题 | 可能原因 | 解决方案 |
|---|---|---|
| 无法连接模型 | 后端服务未运行 配置中 base_url 错误防火墙/端口阻止 |
运行 ollama serve 等启动服务检查配置文件地址和端口 检查网络设置 |
| 提示“模型不存在” | 模型未下载/拉取 模型名称拼写错误 |
运行 ollama pull <模型名>核对模型仓库中的准确名称 |
| API密钥错误 | 密钥未设置或错误 环境变量未生效 |
检查配置文件中密钥或环境变量 重启终端或执行 source ~/.bashrc |
| 运行速度慢 | 使用CPU推理 模型过大,硬件不足 |
确认CUDA可用,尝试更小模型 检查 nvidia-smi 确认GPU是否被使用 |
| 工具调用失败 | 工具API密钥无效 网络问题 |
重新申请并配置工具密钥 检查代理或网络连接 |
- 安装后先激活环境。
- 找到并仔细配置核心文件(
config.yaml),重点是模型后端和API密钥。 - 从CLI开始测试,用
openclaw ask "简单问题"验证流程。 - 根据需求探索:Python库集成、Web UI或API服务。
- 遇到问题,首先检查服务状态、配置路径和密钥,并查看日志(通过
log_level: DEBUG获取更多信息)。
建议详细阅读项目的 官方文档 和 GitHub README,以获取最准确、最新的配置选项和功能说明,祝您使用愉快!