最近我把 OpenClaw 真正接进了自己的日常工程工作流里。最初只是想“装一个 AI 助手试试看”,结果最后演变成了一个持续协作系统:它不仅能对话,还能执行命令、管理上下文、跑测试、维护任务,并且把结果按计划发送给我。
这篇文章记录一下我从安装到落地的全过程,以及它到底是怎么帮我提高效率的。
为什么是 OpenClaw?
我需要的不是一个“会聊天”的模型,而是一个“能干活”的助手:
- 能在本机/服务器执行实际命令;
- 能记住上下文,不用每次从头讲;
- 能定时做事(比如日报);
- 能接入我的常用工具(GitHub、消息渠道等);
- 能把执行结果闭环反馈给我。
OpenClaw 刚好满足了这些条件。
安装之后,我先做了什么
我安装完成后,没有直接进入“写功能”阶段,而是先做了两件基础工作:
- 先把执行环境稳定住(Go、Helm、kind、shell)
- 先把记忆和备份策略定好(避免后续状态丢失)
这一步很关键。因为一旦环境不稳定,后续所有自动化都会变成“偶尔成功”。
一次真实的排障:把 E2E 链路打通
在跑 Envoy Gateway E2E 的过程中,我连续遇到了几类问题:
- Go 工具链版本不匹配;
- 缺少 Helm;
- Helm release 名称冲突(
eg已存在); - kind 集群和测试流程状态不一致;
/etc/bash.bashrc中PS1在非交互 shell 场景触发unbound variable。
其中 PS1 这个问题看似小,但会直接让 make 过程中子 shell 退出。最终修复方式是把 bashrc 里对 PS1 的判断改成安全写法(例如 ${PS1-}),避免在 set -u 场景下炸掉。
这类问题如果手动反复跑,通常很耗时间。用 OpenClaw 的好处是:
- 复现路径可持续;
- 每次失败点能快速定位;
- 修复后可立即回归验证。
不是“聊一下”,而是“接管重复劳动”
我把很多重复动作交给了 OpenClaw:
- 拉取和更新仓库;
- 同步 skills;
- 执行测试并收集失败点;
- 维护备份与
.gitignore规则; - 生成并发送 GitHub standup 报告。
比如我后来把定时日报任务修到可用状态:
- 每天 18:00(Asia/Shanghai)执行;
- 用 GitHub MCP 拉取最近 24h 活动;
- 输出 PR/Issue/Review 模板化报告;
- 直接发到我的 Telegram。
这就是我最看重的一点:AI 不只是回答问题,而是在我的工作流里持续产出结果。
记忆和迁移:把“助手状态”当资产管理
我还专门整理了 OpenClaw 的迁移策略:
- 备份
~/.openclaw里的关键配置和工作区; - 对大型项目目录做
.gitignore排除,避免备份仓库膨胀; - 保留 memory、skills、jobs 等可迁移状态;
- 有意识地区分“可重建环境”和“不可丢失上下文”。
这样即使换主机,也能快速恢复到可工作状态,而不是从零开始重新驯化助手。
我现在的使用感受
如果只看“写代码能力”,很多 AI 工具都不错; 但从“长期效率系统”角度看,我更在意的是:
- 可执行性:能不能真的落地执行;
- 可持续性:上下文和任务能不能持续积累;
- 可维护性:出了问题能不能快速定位与修复。
OpenClaw 在这三点上给我的体验是正向的。
它没有神化工程师,而是把我从大量重复操作里解放出来,让我把精力放在真正需要判断和决策的地方。
如果你也在做基础设施、云原生、网关或平台工程,这种“可执行 + 有记忆 + 可自动化”的 AI 助手值得认真搭一套。