手把手“养虾”指南:在本地部署 GitHub 爆火 AI 助手 OpenClaw
🦞 OpenClaw = 开源 + 本地优先 + 能动手的 AI 智能体
项目地址:https://github.com/openclaw/openclaw
什么是 OpenClaw?
OpenClaw(社区昵称“小龙虾”)是一个自托管的 AI 智能体网关,由 PSPDFKit 创始人 Peter Steinberger 主导开发。
它允许你通过自然语言指令,让 AI 安全地执行真实任务,例如:
- 📁 读取/修改本地文件
- ⚙️ 运行 Shell 脚本或 Python 程序
- 💬 自动回复微信/飞书/Telegram 消息
- 📅 查询日历、创建待办事项
- 🌐 控制浏览器完成网页操作
✨ 核心理念:AI 不该只是嘴炮,而要能“动手”。
前提条件
在开始安装前,请确保你的系统满足以下要求:
- 操作系统:macOS / Linux / Windows(推荐使用 WSL2)
- Node.js ≥ 22(建议通过
nvm安装管理) - 包管理器:
npm(随 Node.js 自带)或pnpm - AI 模型 API:至少一个支持 Function Calling / Tool Use 的大模型,例如:
- Anthropic Claude 3.5 Sonnet
- OpenAI GPT-4o
- 本地 Ollama 模型(如
llama3.1:8b、qwen:7b) - 其他兼容 OpenAI API 的服务(如 DeepSeek、Moonshot、阿里通义千问)
💡 提示:如果你没有 API 密钥,可先用 Ollama 搭建本地模型,完全离线运行。
安装步骤
1. 安装 OpenClaw CLI
打开终端,运行以下命令全局安装 OpenClaw:
# 使用 npm |
✅ 验证安装成功:
openclaw --version
# 应输出类似:openclaw v0.8.2
2. 初始化配置(首次运行会引导)
执行 onboard 命令,OpenClaw 会自动创建配置目录并引导你完成初始设置:
openclaw onboard --install-daemon |
此过程将:
- 创建配置目录
~/.openclaw - 安装后台守护进程(daemon),确保服务常驻
- 弹出交互式提示,让你选择默认模型提供商和输入 API 密钥
🔐 注意:API 密钥仅保存在本地
~/.openclaw/secrets.json,不会上传到任何服务器。
3. 配置 AI 模型(可选手动编辑)
如果 onboard 未完成配置,或你想切换模型,可手动编辑配置文件:
nano ~/.openclaw/config.yaml |
示例:使用 Claude
model: |
示例:使用本地 Ollama
model: |
📌 支持的
provider包括:anthropic、openai、ollama、groq、azure等。
4. 启动服务
运行以下命令启动 OpenClaw 后台服务:
openclaw start |
服务启动后:
- 默认监听
http://localhost:8080 - 内置 Web UI 可通过浏览器访问:http://localhost:8080/web
- 日志输出到
~/.openclaw/logs/
🔄 如需重启:
openclaw restart
🛑 停止服务:openclaw stop
连接消息渠道(可选但推荐)
让 OpenClaw 接入你的日常通讯工具,实现随时随地指挥“小龙虾”:
Telegram
- 在 Telegram 搜索
@BotFather,创建新 Bot - 获取
BOT_TOKEN - 在
~/.openclaw/config.yaml中添加:
channels: |
然后发送 /ask 整理 ~/Downloads 文件夹,AI 就会执行!
飞书
- 创建飞书自定义机器人
- 复制 Webhook URL
- 配置:
channels: |
✅ 其他支持渠道:Discord、Slack、Webhook、本地 CLI(直接
openclaw ask "...")
安全与权限控制
OpenClaw 极度重视隐私与安全:
- 默认仅限本地访问(
127.0.0.1),不开放公网 - 所有敏感操作需确认:首次执行文件删除、脚本运行等操作时,会弹出桌面通知或 Web 确认框
- 能力隔离:通过
skills/插件系统控制 AI 能力边界 - 沙箱模式(实验性):限制文件访问路径,防止越权
🔒 你的数据,永远留在你的设备上——这是 OpenClaw 的核心承诺。
常见问题(FAQ)
Q:需要 GPU 吗?
A:不需要!OpenClaw 本身是轻量级 Node.js 服务,推理由云端 API 或 Ollama 处理。即使使用本地模型,也可在 CPU 上运行(速度稍慢)。
Q:能用国产大模型吗?
A:可以! 只要模型支持 Function Calling,并提供 OpenAI 兼容 API(如通过 FastChat 或 Ollama),即可接入。通义千问(Qwen)、DeepSeek、Moonshot 均已验证可用。
Q:“养虾”资源占用高吗?
A:常驻内存约 100–200MB,CPU 占用极低,普通笔记本无压力。Ollama 运行本地模型时会额外占用资源,但可随时关闭。
Q:Windows 原生支持吗?
A:目前推荐使用 WSL2(Windows Subsystem for Linux)。原生 Windows 支持正在开发中(关注 GitHub Issue #128)。
结语
OpenClaw 正在重新定义“AI 助手”——它不再是聊天窗口里的幻觉制造机,而是你数字生活的真实协作者。
从整理文件到自动汇报,从查日程到写脚本,这只“小龙虾”能真正为你节省时间、减少重复劳动。
现在就动手“养”一只属于自己的智能龙虾吧!
🌟 项目地址:https://github.com/openclaw/openclaw
📚 官方文档:https://docs.openclaw.dev
💬 社区讨论:Lobsters 论坛 #openclaw
本文基于 OpenClaw v0.8.2 编写
说些什么吧!