创建一个名为 openclaw 的Python 3.10环境

openclaw openclaw中文博客 2

OpenClaw是一个开源的、轻量级的AI助手项目,基于深度求索公司的DeepSeek等模型,旨在提供一个本地可部署、支持函数调用、中文友好的智能体框架。

创建一个名为 openclaw 的Python 3.10环境-第1张图片-OpenClaw 中文版 - 真正能做事的 AI

核心概念与准备

  • 个人版:意味着你可以在一台具备足够资源的个人电脑(台式机/笔记本)或云端服务器(如AutoDL、谷歌Colab等)上运行。
  • 核心依赖:Python、大语言模型(需要下载或配置API)、以及项目的源代码。
  • 硬件要求
    • CPU版本(推荐初学者):需要至少 8GB 可用内存,推理速度较慢,但安装简单。
    • GPU版本(推荐有N卡用户):需要至少 6GB 显存的NVIDIA显卡(如RTX 2060, 3060等),推理速度更快。
    • 磁盘空间:至少准备 10-20GB 空间用于存放模型和依赖。

第一步:环境准备

安装 Miniconda/Anaconda(强烈推荐)

用于创建独立的Python环境,避免依赖冲突。

  • 前往 Miniconda官网 下载对应你操作系统的安装包。
  • 按照指示安装,在终端(Linux/macOS)或 Anaconda Prompt(Windows)中验证:
    conda --version

创建并激活虚拟环境

# 激活环境
conda activate openclaw

第二步:获取OpenClaw项目代码

克隆仓库

打开终端(确保已激活 openclaw 环境),执行:

git clone https://github.com/openclaw-ai/OpenClaw.git
# 如果github连接慢,可以使用Gitee镜像(如果有的话)
# git clone https://gitee.com/xxx/OpenClaw.git (请查看项目主页获取最新镜像地址)
cd OpenClaw

安装项目依赖

pip install -r requirements.txt

注意:如果遇到网络问题,可以使用国内镜像源加速:

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

第三步:配置模型(关键步骤)

OpenClaw需要一个大语言模型作为核心引擎,你有两种选择:

方案A:使用在线API(最简单,无需高配置)

  1. 修改配置文件,通常项目根目录下有一个 config.yaml.env.example 文件。
  2. 复制一份并重命名:
    cp .env.example .env
  3. 编辑 .env 文件,填入你的API密钥,使用DeepSeek API:
    LLM_API_TYPE=deepseek
    DEEPSEEK_API_KEY=你的sk-xxxxxxxxxxxxxx
    # 其他配置保持默认
  4. 这种方式无需下载模型,运行速度快,但会产生API费用。

方案B:使用本地模型(完全离线,需要硬件)

这是“个人版”本地部署的核心。

  1. 下载模型:OpenClaw通常与 Qwen(通义千问)或 DeepSeek 的量化模型兼容,以 Qwen2.5-7B-Instruct 的4位量化版为例:

    • 推荐下载平台
      • Hugging Face: https://huggingface.co/Qwen
      • ModelScope: https://modelscope.cn/models/qwen
    • 使用 git-lfs 或直接下载,在项目目录下创建一个 models 文件夹:
      mkdir models
      cd models
      git lfs install
      git clone https://huggingface.co/Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4

      (如果没有git-lfs,请先安装,或者直接从网页手动下载所有文件到此目录)

  2. 配置本地模型路径: 编辑 .env 文件,配置为使用本地模型:

    LLM_API_TYPE=local
    LOCAL_MODEL_PATH=./models/Qwen2.5-7B-Instruct-GPTQ-Int4
    # 根据你的显卡选择设备,有GPU就用cuda
    DEVICE=cuda  # 或 cpu

第四步:运行OpenClaw

启动Web UI界面(最直观)

大多数开源AI助手项目都提供了类似ChatGPT的网页界面。

# 通常在项目根目录下运行类似命令,具体请查看项目的 README.md
python webui.py
# 或者
streamlit run app.py

运行成功后,终端会显示一个本地URL(如 http://127.0.0.1:7860http://localhost:8501),用浏览器打开这个链接即可开始对话。

启动命令行界面

如果项目提供了CLI工具,可以:

python cli.py

第五步:验证与测试

  1. 在Web UI或CLI中,尝试问一个问题,“你好,介绍一下你自己。”
  2. 观察响应,第一次加载本地模型可能需要几十秒到几分钟(取决于你的硬盘和CPU/GPU速度),后续对话会快很多。
  3. 尝试其特色功能,如“函数调用”(如果项目支持),“帮我查一下北京今天的天气。”(这需要你预先配置好对应的天气API工具)。

常见问题与排错

  • CUDA Out of Memory:GPU显存不足,尝试使用更小的量化模型(如3B、1.5B型号),或者在 .env 中设置 DEVICE=cpu 使用CPU推理。
  • 依赖安装失败
    • 确保Python版本为3.9或3.10。
    • 尝试升级pip:pip install --upgrade pip
    • 逐个安装主要依赖:pip install torch torchvision torchaudio(根据CUDA版本去PyTorch官网获取命令)。
  • 模型加载慢/报错
    • 检查模型文件是否完整。
    • 确认 .env 中的 LOCAL_MODEL_PATH 路径是否正确。
  • 找不到命令/模块
    • 确保始终在 conda activate openclaw 激活的虚拟环境下操作。
    • 确保在项目根目录 OpenClaw/ 下运行命令。

进阶提示

  • 性能调优:对于本地模型,可以研究 transformers 库的加载参数,如 load_in_4bit, load_in_8bit 来进一步节省显存。
  • 工具扩展:阅读项目的 tools/ 目录或相关文档,学习如何为你自己的OpenClaw添加新的自定义功能(如查询数据库、发送邮件等)。
  • 关注社区:项目问题和讨论区是解决问题的宝库。

最重要的建议:始终以项目官方Git仓库的 README.mddocs/ 文档为最权威的安装依据,本指南提供了一个通用流程,但具体细节可能随项目版本更新而变化。

祝你在本地成功部署属于你自己的AI小龙虾!

抱歉,评论功能暂时关闭!