Linux/macOS

openclaw openclaw中文博客 2

基础配置

启动Ollama服务

# Windows(通常自动启动服务)
# 检查服务状态
ollama list

拉取OpenClaw推荐的模型

# 常用模型推荐
ollama pull qwen2.5:14b           # 中文优化模型
ollama pull llama3.2:3b           # 轻量级模型
ollama pull deepseek-coder:6.7b   # 编程专用
ollama pull mxbai-embed-large     # 嵌入模型(RAG需要)

OpenClaw专用配置

环境变量配置

在OpenClaw项目根目录创建 .env 文件:

Linux/macOS-第1张图片-OpenClaw 中文版 - 真正能做事的 AI

# Ollama配置
OLLAMA_BASE_URL=http://localhost:11434
OLLAMA_MODEL=qwen2.5:14b
# 可选:自定义模型配置
OLLAMA_TEMPERATURE=0.7
OLLAMA_TOP_P=0.9
OLLAMA_MAX_TOKENS=4096

创建自定义模型文件

创建 Modelfile 针对OpenClaw优化:

FROM qwen2.5:14b
# 系统提示词
SYSTEM """
你是一个专注于龙虾养殖、水产技术和农业AI的智能助手。
请以专业、准确、实用的方式回答用户问题。
"""
# 参数调整
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER num_ctx 8192

创建自定义模型:

ollama create openclaw-custom -f ./Modelfile

API集成配置

OpenClaw配置文件

编辑OpenClaw的配置(根据具体位置):

# config/ollama_config.yaml
ollama:
  base_url: "http://localhost:11434"
  model: "openclaw-custom"
  embeddings_model: "mxbai-embed-large"
  # 高级配置
  options:
    temperature: 0.7
    top_p: 0.9
    num_predict: 4096
    stream: true

验证连接

创建测试脚本 test_connection.py

import requests
response = requests.post(
    "http://localhost:11434/api/generate",
    json={
        "model": "qwen2.5:14b",
        "prompt": "你好,测试OpenClaw连接",
        "stream": False
    }
)
print(f"状态码: {response.status_code}")
print(f"响应: {response.json()}")

性能优化

GPU加速配置

# 查看可用GPU
ollama run llama3.2:3b --verbose
# 指定GPU(如果多个)
export OLLAMA_GPU_DEVICE=0
# Windows环境变量
set OLLAMA_GPU_DEVICE=0

内存优化

# 为Ollama分配更多资源(Linux/macOS)
export OLLAMA_NUM_PARALLEL=4
export OLLAMA_MAX_LOADED_MODELS=3
# 模型卸载策略
export OLLAMA_KEEP_ALIVE=5m

常见问题解决

端口冲突

# 修改Ollama端口
export OLLAMA_HOST=0.0.0.0:11435
# 重启服务
pkill ollama
ollama serve

模型加载失败

# 清理缓存
ollama rm <model_name>
ollama pull <model_name>
# 检查磁盘空间
df -h

API调用错误

# 查看服务日志
ollama serve > ollama.log 2>&1 &
# 检查防火墙
sudo ufw allow 11434/tcp

高级功能配置

RAG向量库集成

# 配置向量数据库
from langchain_community.embeddings import OllamaEmbeddings
embeddings = OllamaEmbeddings(
    model="mxbai-embed-large",
    base_url="http://localhost:11434"
)

多模型切换

在OpenClaw配置中实现动态模型选择:

models:
  default: "qwen2.5:14b"
  coding: "deepseek-coder:6.7b"
  fast: "llama3.2:3b"
  expert: "qwen2.5:32b"

监控和维护

服务监控脚本

#!/bin/bash
# monitor_ollama.sh
while true; do
    curl -s http://localhost:11434/api/tags > /dev/null
    if [ $? -ne 0 ]; then
        echo "$(date): Ollama服务异常,重启中..."
        pkill ollama
        ollama serve &
    fi
    sleep 60
done

资源使用统计

# 查看模型内存占用
ollama ps
# 监控GPU使用
nvidia-smi  # NVIDIA显卡

推荐配置组合

轻量级配置(4-8GB内存):

ollama pull llama3.2:3b
ollama pull mxbai-embed-large

标准配置(16GB内存):

ollama pull qwen2.5:14b
ollama pull deepseek-coder:6.7b
ollama pull mxbai-embed-large

高性能配置(32GB+内存):

ollama pull qwen2.5:32b
ollama pull codellama:34b
ollama pull mxbai-embed-large

注意事项

  1. 首次启动:首次运行需要下载模型,根据网络情况可能需要较长时间
  2. 硬件要求:确保系统有足够的内存和存储空间
  3. 版本兼容:确认OpenClaw和Ollama版本兼容
  4. 安全配置:生产环境请配置适当的访问控制和防火墙规则

完成以上配置后,OpenClaw应该能够正常与Ollama交互,提供AI对话功能,如有问题,请查看Ollama日志或OpenClaw错误信息进行调试。

抱歉,评论功能暂时关闭!