欢迎user

“不要将‘龙虾’智能体实例暴露到互联网!”
“不要使用要求‘下载ZIP’、‘执行shell脚本’或‘输入密码’的技能包!”
“不要禁用详细日志审计功能!”
————摘自工信部《关于防范OpenClaw开源智能体安全风险的“六要六不要”建议》
当全民陷入“养虾”狂欢时,一份来自政府机构的风险提示为这场狂欢敲响了警钟。近日,工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)发布专项提示,明确指出OpenClaw因其“高权限”特性,可能带来数据泄露、系统失控等风险。这意味着,OpenClaw的安全问题已经从技术圈的内部探讨上升到了数据与系统安全的公共议题。

功能越强大,攻击面越宽广。如此无所不能的开源 AI 智能体,一旦配置不当,或被一段精心设计的恶意指令诱导,其后果不堪设想,其“信任边界模糊”的设计初衷是为了便捷,然而便捷与安全并非不可兼得,当我们深入剖析OpenClaw的安全架构时,发现其早已清醒地意识到安全问题,并设计了一套层层关联的安全防御体系,试图在赋予AI强大能力的同时,为它套上稳固的盾牌。
OpenClaw安全架构
不防被骗只防出事
OpenClaw认为大语言模型(LLM)是可以被欺骗的,试图训练一个永不中招的完美AI是徒劳的。因此它不再纠结于“AI会不会被骗”,而是致力于确保“即使AI被骗,也干不了坏事”,所有指令无论来自哪个平台,都必须先经过统一的网关(Gateway),严格执行身份认证、设备校验和白名单控制,即便攻击者建立了连接,其后续的每一个动作依然要接受层层审查。

因此,OpenClaw 构建了一套“先验身份,再划边界”的纵深防御体系,其安全逻辑清晰而严密。首先通过设备配对与白名单机制,严格界定“谁”可以对话;进而通过群组管控、工具权限与沙箱隔离,精确限定机器人“在哪里”行动以及“能用什么”;最终基于“模型本身可能被操纵”的清醒假设,将潜在危害的爆炸半径限制在预先划定的最小范围之内。

OpenClaw安全架构
抬高信任起点
设备“验明正身”才能进门
如何确定谁有资格与你的AI对话?OpenClaw摒弃了繁琐的密码预配置,采用了更先进的 “零信任”配对机制。当一台新设备(无论是手机、电脑还是Node节点)首次尝试连接时,系统绝不会自动放行。它会在操作端生成一个唯一的配对请求,例如,在私信(DM)场景中,新用户会收到一个配对码,只有管理员在另一端手动批准,信任通道才会建立。更关键的是设备级认证,每个设备会生成唯一的ED25519密钥对,其公钥指纹成为该设备的“数字身份证”。所有通信都基于此进行加密签名,有效防止中间人攻击。这套机制的强大之处在于权限的即时可控,只需清除设备令牌,即可一键撤销其所有访问权限,远比修改密码或轮换密钥更敏捷、更彻底。
把危险关进沙箱
给工具加上权限锁
有了身份,不等于有特权。OpenClaw最精细的两大控制是沙箱隔离与工具权限。沙箱隔离是核心防线,OpenClaw默认用Docker容器为AI的执行打造“玻璃牢房”,可以根据需要选择隔离等级。
会话级隔离(最安全):每个任务都在全新的沙箱中运行,任务结束,沙箱销毁,片甲不留。
代理级隔离(平衡):同一AI助理的任务共享沙箱,兼顾效率与安全。
共享沙箱(最高效):多个AI共用环境,隔离最弱,仅用于高度信任场景。
不仅如此,OpenClaw还通过精确控制沙箱的可视范围,判断出完全隔离、仅可读工作区、可读写特定目录等不同范围,网络访问默认关闭且需显式开启,更有效防止数据外泄。

OpenClaw渐进式沙箱访问控制
如果说沙箱隔离是“玻璃牢房”,那OpenClaw的工具权限控制则像一套精密的“武器管理系统”。权限配置从宽到严,层层收紧,且所有操作全程记录审计日志,做到全流程可追溯。
全局黑白名单:直接禁用如browser这类高危工具。
场景化配置:为“编码”、“通讯”等不同场景预设工具包。
模型级策略:即使同一场景,也可限制特定模型只能用“最小工具集”。
人工审批:对bash命令、文件删除等操作,设置为必须经过人工点击确认才能执行。
由于智能体的运行高度依赖被授予的权限与接收的指令,其安全性并非追求绝对无误,而在于依据最小授权、及时收权、设定边界的原则,为它构筑清晰且不可逾越的行动框架。因此,在当前阶段部署与使用OpenClaw时,务必落实以下关键实践:充分核查公网暴露情况、权限配置及凭证管理情况,关闭不必要的公网访问,修改默认端口、遵循最小权限原则,同时注意开启沙箱保护、审核Skills安全性。
总之,虽然安全风险当前不能完全避免,但正如其创始人所言:“龙虾要长大就必须蜕壳,蜕壳时最脆弱,但不蜕壳就不长”。技术提供了强大的能力,但最终的安全水位取决于使用者的配置与意识,理解并驾驭规则才能真正安心享受这只“龙虾”带来的红利。
下一期,我们将为您深度解读,新华三安全养“虾”攻略!

