2026 年初,一个代号为“clawd”的 AI 智能体项目在 GitHub 上增长非常迅猛:在不到一个月的时间里,它狂揽了 20 多万颗星。 它曾叫过 Clawdbot,也短暂用过 Moltbot,但现在它最广为人知的名字是 OpenClaw,并衍生出庞大的生态群。
初代 Clawdbot 以 llm模型为内核搭建本地执行智能体原型;后来,增加Gateway 控制平面、动态能力注入与环境扎根机制,让 AI 从被动响应转向主动规划;最终定名的 OpenClaw ,并以高度模块化的 Lobster 执行循环、多端兼容的网关体系和可插拔技能skill生态,打造出本地优先的个人 AI 操作系统。
以往一个简单的聊天机器人套件不同openclaw是一个本地部署的、能够接管你机器资料,调用电脑功能,必确能够反复,定时执行的智能体。

OpenClaw 支持包括 Telegram、Discord、WhatsApp、Slack、飞书、iMessage 等在内的 12 个社交平台。

通道适配器层主要负责两件事:
这种抽象层确保了你在 WhatsApp 上发起的任务,可以在切换到 Slack 后无缝衔接,上下文丝毫不丢。
Gateway 是 Clawdbot 的核心控制平面,提供:
网关通常作为一个守护进程运行,网关端口默认是 18789,同时支持 WebSocket (WS) 和 HTTP 协议,可统一连接各种客户端,包括命令行界面(CLI)、配套应用程序、WebChat UI 以及 iOS/Android 节点。
openClaw支持多 Agent 架构。一个 Gateway 可以托管多个独立的 Agent。
每一个消息来源,绑定一个特定的 Agent。
消息来源 = channel(渠道)+ accountId(账号)+ peer(对话方)

这是最能体现“精细化管理”的一层。在调用 LLM 之前,运行器会进行外科手术式的准备:
在这里,token 的用量优化成为重要的考量,采用了 Skills 的架构,动态加载和技能相关的描述和细节。这些设计精准地划出了概念验证与成熟产品之间的界线。
加载好系统提示词之后,Agent Runner 会调用 LLM 大模型服务,返回的结果交由下一层来处理。
OpenClaw 理论上支持任意模型,效果较好的模型包括国外的 Claude,ChatGPT,Gemini,以及国内的 Kimi K2.5, GLM-4.7, MiniMax M2.1,甚至本地模型 Ollama 和聚合服务 OpenRouter 都可以支持。
这是 OpenClaw 与传统聊天机器人的最大区别。每当 LLM 生成响应,系统都会问一个关键问题:“我要干什么”,“这包含工具调用吗?”
这种闭环让 AI 能够自主执行任务。比如让它 “帮我整理桌面PDF”,它会自主运行EXEC命令进行搜索,创建文件夹进行整理。全程零人工干预。

上面的是典型的智能体处理逻辑,可以调用内置的 109 种技能,如系统自动化、第三方生态集成、通讯与社交,以及智能家居生活。此外,OpenClaw 还可以通过 MCP/Skills 方式外接其他技能,已知的技能超过200多种(理论上是无限多种)。
用户可以简单地把技能注册到OpenClaw的工具注册表里面,就可以用OpenClaw来编排和执行了。甚至还可以通过一个称为“skill-creator”的工具,在运行过程中自发生成新技能。
OpenClaw 最强大、最灵活也是最精妙之处就在这里了。当然,这种灵活性也成为了 OpenClaw 被诟病的安全隐患来源。相信很快就会解决。
上一层产生的文本,由本层负责发回给用户。为了降低感官延迟,OpenClaw 采用了流式处理。用户能看到文字像喷泉一样涌现,而不是死等三分钟。同时,响应会再次经过通道适配器,根据目标平台的特性进行格式化(如针对 Discord 渲染 Markdown,针对 Telegram 的字符长度限制进行分段等)。
系统要求:

⚠️Windows 用户注意:强烈推荐使用 WSL2(Ubuntu),原生 Windows 未经充分测试,可能存在兼容性问题。
Linux / macOS:
curl -fsSL https://openclaw.ai/install.sh | bash
Windows (PowerShell):
iwr -useb https://openclaw.ai/install.ps1 | iex
# 使用 npm
npm install -g clawdbot@latest
# 或使用 pnpm(推荐)
pnpm add -g clawdbot@latest
安装完成后,运行引导向导进行初始配置:
clawdbot onboard --install-daemon
引导向导将帮助你配置:
# 检查状态
clawdbot status
# 健康检查
clawdbot health
# 安全审计
clawdbot security audit --deep
为了安全起见,Clawdbot 默认对未知发送者启用配对机制:
# 查看待批准的配对
clawdbot pairing list <channel>
# 批准配对
clawdbot pairing approve <channel> <code>
要开放接收所有 DM(不推荐),设置:
{
"channels": {
"<channel>": {
"dm": {
"policy": "open",
"allowFrom": ["*"]
}
}
}
}
Clawdbot 连接到真实的通讯平台,因此必须将入站 DM 视为不可信输入。

Clawdbot 支持在 Docker 沙箱中运行非主会话:
{
"agents": {
"defaults": {
"sandbox": {
// off: 不使用沙箱
// non-main: 非主会话使用沙箱
// always: 始终使用沙箱
"mode": "non-main"
}
}
}
}
沙箱默认设置:

没有一个合适的内存系统,一个 AI 助理的记忆力就和金鱼一样。OpenClaw 的记忆系统并没有采用复杂的神经网络存储,而是选择了“解释性的简单”:
最妙的一点是:AI 会像人类写日记一样,在每次新对话开始前,自动为之前的对话撰写 Markdown 摘要。这种“自发性记忆”让系统更具可读性。
和之前“智能体必须由大厂垂直集成”的观念不同,OpenClaw 提供了一种新的可能:本地化、用户可控并运行在个人硬件上的智能体。它不仅仅是一个个人项目,它代表了 AI 时代的“权力归位”:你可以自由选择 LLM 服务商,自由定义技能模块,并让 AI 真正为你的本地数字环境服务——无需复杂架构和大厂垄断,坚持本地化、主动执行和高度个性化,有可能打造强大又易用的工具。
Steinberger 在 “退休后寻找人生意义” 的个人实验,从 1 小时原型到 GitHub 现象级项目,全程由他单人主导并以 “氛围编程” 驱动快速迭代,核心是解决 AI Agent “只思考不行动” 的行业痛点。
Peter 以个人实践验证ai时代 “超级个体可驱动现象级开源项目”,而 OpenClaw 的爆发,本质是 “本地执行 + 自然交互” 的技术路线契合了用户对 AI “真正做事” 的核心需求。

