你的 OpenClaw 已经暴露在公网,正在被扫描

你的 OpenClaw 已经暴露在公网,正在被扫描

这篇文章讲什么

OpenClaw 爆火仅 2 个月,已有约 54 万个 Agent 暴露在公网,正面临被扫描与攻击的风险。许多用户误以为自己在“本地运行”,但实际上已将整个 AI Agent 系统暴露在互联网。风险不仅是页面访问,而是控制入口、上下文、API Key 与执行权限的全面暴露。一旦被发现,可能迅速演变为漏洞利用、资源滥用甚至实例接管。是否暴露取决于监听地址、公网 IP 和端口开放三项条件。AI Agent 时代的安全问题,本质不再是技术,而是认知——你暴露的不是服务,而是你的 AI 分身控制权。

适合谁看

适合关注ai、agent、openclaw的读者。

核心观点

OpenClaw 爆火仅 2 个月,已有约 54 万个 Agent 暴露在公网,正面临被扫描与攻击的风险。许多用户误以为自己在“本地运行”,但实际上已将整个 AI Agent 系统暴露在互联网。风险不仅是页面访问,而是控制入口、上下文、API Key 与执行权限的全面暴露。一旦被发现,可能迅速演变为漏洞利用、资源滥用甚至实例接管。是否暴露取决于监听地址、公网 IP 和端口开放三项条件。AI Agent 时代的安全问题,本质不再是技术,而是认知——你暴露的不是服务,而是你的 AI 分身控制权。

Carry
2026年3月18日
5

OpenClaw 才爆火 2 个月。

截至 2026 年 3 月中旬,全球就已经有大约 54 万个 OpenClaw Agent,直接暴露在公网,面临随时被黑客攻击的潜在风险。

image

这不是一个“技术问题”。

这是一个:

大规模正在发生的安全问题。


如果你也在用 OpenClaw,

你需要认真想一件事:

你现在的这个 Agent,

是不是也在这 54 万里。


如果答案是“可能”。

那你已经不是在“本地跑 AI”。

你是在把整个 AI Agent 系统,
直接挂在互联网。

而你自己,
还以为它只是“本地运行”。

真正危险的地方在于:

你暴露的,从来不只是一个页面。

一旦你的 OpenClaw 面板可以被公网访问,别人接触到的可能是:

  • 你的 Agent 控制入口
  • 你的会话上下文
  • 你的工具调用能力
  • 你的 API Key 使用面
  • 你的自动化执行权限
  • 甚至你接入过的系统和账号能力

换句话说:

你不是暴露了一个 Web 页面。
你暴露的是——你的 AI 行动系统入口。

再说得更直接一点:

你不是把网站放到公网。
你是把“AI 分身的控制权”,放到了公网。


image

你以为你暴露的是一个页面,

实际上暴露的是整个 AI Agent 系统。

问题从来不在技术。

而在认知。

在传统时代:

公网暴露一个页面,
最多是“网站被扫”。

但在 AI Agent 时代:

公网暴露一个 Agent 面板,意味着:

有人正在接近你的上下文、权限和执行能力。

如果配置再松一点、版本再旧一点,风险会快速升级为:

  • 被探测
  • 被撞配置
  • 被利用漏洞
  • 被窃取 token
  • 被滥用资源
  • 被接管实例

很多人不敏感,是因为他们脑子里想的是:

“我只是装了个工具。”

但现实是:

你装的不是工具。
你装的是一个连接模型、工具、账号、自动化能力的系统。

所以今天真正该问的,不是:

“我的 OpenClaw 能不能跑起来?”

而是:

“它现在,是不是已经暴露在公网?”


先说结论

OpenClaw 不一定会自动暴露公网。

但它绝对不是“默认安全”。

是否暴露,取决于三件事:

  1. 监听地址是不是 0.0.0.0
  2. 机器有没有公网 IP
  3. 端口是否开放

只要这三件事同时成立:

👉 你的 OpenClaw,大概率已经是公网可访问状态。

不是 OpenClaw 暴露了你。
是你的部署方式,把它送上了公网。


为什么这件事现在更危险?

因为 Agent ≠ 传统服务。

传统服务暴露,通常只是:

  • 一个页面
  • 一个接口
  • 一个后台

但 OpenClaw 这种 Agent 系统背后连接的是:

  • LLM 调用
  • 工具执行能力
  • 外部账号
  • 自动化任务
  • 历史上下文

所以风险不是线性增加。

而是被“能力连接”放大。

可以这样理解:

过去暴露的是“门”。
现在暴露的是:

门 + 钥匙串 + 操作台。


为什么这么多人会中招?

因为很多人不知道一件事:

服务启动 ≠ 服务只在本地。

大多数人做的只是:

  • 跑了个 Docker
  • 买了台云服务器
  • 加了个域名
  • 想远程方便访问

但这些动作一旦组合不当:

👉 就等于把 OpenClaw 直接上线到互联网。

绝大多数暴露案例,不是黑客太强。

而是用户自己,用一条命令公开了系统。


怎么判断你有没有暴露?

不要猜。
不要凭感觉。

只查三件事:

1️⃣ 看监听地址

ss -tulnp | grep 18789

如果是:

0.0.0.0:18789

👉 正在监听所有网络接口

如果机器有公网 IP,就有被访问风险。

如果是:

127.0.0.1:18789

👉 只允许本机访问,相对安全。

2️⃣ 看有没有公网 IP

curl ifconfig.me

返回公网地址:

👉 说明你的机器在互联网可见范围内。

特别注意:

  • 云服务器
  • VPS
  • AWS / 阿里云 / 腾讯云

这些环境,本身就是“默认对公网开放”的。

3️⃣ 从外部实测

curl http://你的公网IP:18789

只要能返回页面:

👉 就已经是公网暴露。

判断很简单:

外网能不能直接访问到。

能,就是暴露。


Docker 用户最容易踩坑

最常见的一条命令:

docker run -p 18789:18789 openclaw

很多人以为只是启动服务。

但它的真实含义是:

👉 把端口直接映射到宿主机。

如果宿主机有公网 IP + 没有限制:

👉 就等于把 OpenClaw 公开到互联网。

绝大多数事故,不复杂:

公网机器 + 端口映射 + 没限制

然后扫描器就来了。


有域名,不代表安全

很多人会说:

“我有域名”
“我有 Nginx / Caddy”

但:

  • 域名 ≠ 安全
  • 反代 ≠ 防护

如果结构是:

domain → OpenClaw

但没有:

  • 访问控制
  • 身份认证
  • 零信任机制

👉 本质还是公网暴露。


一个最简单的判断标准

相对安全

  • 绑定 127.0.0.1
  • 不开放端口
  • 不允许公网访问
  • 通过 Tunnel / 私有网络访问
  • 有额外认证层

高风险

  • 监听 0.0.0.0
  • 云服务器公网 IP
  • 端口直接开放
  • 外部可访问面板
  • Docker 直接映射

如果你命中了后者:

别再问“会不会被扫”。

更现实的问题是:

👉 你是什么时候被扫到的。


“没人会注意我”,是错觉

今天的互联网:

不是有没有人盯你。

而是:

你是否已经进入“默认被扫描”的范围。

扫描是:

  • 自动化的
  • 规模化的
  • 持续发生的

只要你的服务:

  • 可公网访问
  • 有特征
  • 可识别

👉 被发现只是时间问题。


最推荐的部署方式

正确思路只有一个:

👉 不要直接暴露

image 结构应该是:

OpenClaw

127.0.0.1

Tunnel(Cloudflare / Tailscale / WireGuard)

私有访问

这样做的核心价值:

  • 不暴露端口
  • 不被扫描
  • 攻击面极小
  • 仍可远程访问

最后一件事(重点)

如果你已经在跑 OpenClaw,

现在最重要的不是继续折腾功能,

而是先确认一件事:

👉 你的 Agent,是不是已经暴露在公网。

过去暴露的是网站。
现在暴露的,是你的 AI 分身。

如果你想把 OpenClaw 用得更好,

想让自己的龙虾变得即安全又好用,

建议你尽早建立一套正确的安全认知和使用方式。

我会在 DeepCarry 会员社区,

持续分享 OpenClaw 的使用技巧、部署经验,以及安全相关的最佳实践。

👉 https://deepcarry.io/zh/member

这是一堂所有人都必须补的安全课。

相关文章

我花了好几个小时,终于把 OpenClaw 调到像人类一样控制浏览器了

AI浏览器自动化不稳定的根本原因并非模型能力不足,而是“浏览器上下文分裂”。当AI通过多种路径(如MCP、Playwright、扩展或本地命令)操作浏览器时,实际上处于不同的浏览器实例、profile与状态中,导致登录态丢失、操作混乱与行为不连续。解决方案在于将所有操作收敛到单一链路:复用系统Chrome,通过Browser Relay接管当前tab,并基于DOM而非截图进行页面读取。同时,需禁止fallback路径,确保环境一致性。最终,使AI从“偶发成功的脚本”进化为“稳定持续操作的浏览器代理”,实现接近人类的自动化体验。

2026年3月24日

到底什么是 AI Native(AI 原生)?

很多人听过 AI-native,却很难真正解释清楚。本文用一句话拆解 AI-native 的核心定义:不是更快使用 AI,而是把“完成任务的方法”沉淀为可复用、可验证、会进化的系统能力。文章通过结构模型、五级成熟度、自测方法与 7 天升级路径,帮助你判断自己所处阶段,并从“AI 使用者”进化为真正的 AI-native 构建者。

2026年2月20日

我见过最可怕的工位:没人,电脑在上班!AI员工,已经悄然到来......

AI员工正在从概念走向现实。部分科技公司已开始部署可持续运行的AI执行体,它们不再只是工具,而是能够接收任务、操作系统、跨流程执行并交付结果的“岗位能力”。从企业级Agent平台到开源框架的普及,AI执行能力正在被结构性释放。这并不意味着大规模裁员会立刻发生,但意味着组织将逐步从“人类执行结构”转向“人类判断结构”。未来的变化,不是岗位一夜消失,而是执行权的慢慢转移。真正值得思考的,是在这一趋势中,我们的能力结构是否具备不可替代性。

2026年2月12日

Openclaw( Clawdbot | Moltbot)为什么会突然刷屏?

Clawdbot(Moltbot)是一款本地运行的 AI Agent 项目,代表了 local-first AI 与个人 AI 执行层的发展方向。它通过权限委托在本地完成自动化任务,区别于传统云端聊天 AI。随着隐私、安全、成本与平台依赖问题加剧,Clawdbot 的走红及更名事件,反映出开发者对 AI 执行权、控制权与风险边界的重新关注。

2026年1月28日

评论区

总计 0
登录后可参与评论与点赞。 立即登录

评论加载中...

目录