OpenClaw紧急调整权限策略:AI Agent背后的安全隐患深度解析

2026年3月17日

82

551

OpenClaw紧急调整权限策略:AI Agent背后的安全隐患深度解析

近日,开源AI Agent项目OpenClaw发布了2026.3.2版本更新,默认将系统权限从完全开放调整为仅开放聊天功能。这一变化被业界视为项目方主动"踩刹车"的安全举措,也引发了关于AI Agent技术风险的大规模讨论。

大模型不确定性:AI Agent的核心矛盾

OpenClaw目前支持四种运行模式:messaging模式仅开放基础对话功能,安全性最高但能力受限;minimal模式仅允许会话状态查询;coding模式开放文件读写、命令执行等开发相关权限;full模式则完全开放所有系统权限。新版本默认采用messaging模式,这意味着用户若需使用完整的系统控制能力,必须手动修改配置文件。

公网暴露与凭证泄露风险

OpenClaw权限收紧的背后,折射出AI Agent领域的根本性技术矛盾。大语言模型本质上是概率驱动的系统,天然存在不确定性和"幻觉"问题;而操作系统则是确定性的执行环境,输入什么命令就会精确执行什么操作。当一个可能"失控"的AI大脑被赋予系统级权限后,这种组合本身就构成了一个极不稳定的系统——模型的一次"抽风"就可能导致数据被永久删除。

系统权限是AI Agent能力的来源,但恰恰也是风险的主要来源。

“行业观察”

安全扫描数据显示,OpenClaw爆红后一周内,公网可访问的实例从约1000个激增至超过21000个。更严重的是,部分实例的登录凭证已遭泄露。OpenClaw将配置信息、API密钥、平台授权token等敏感数据以明文形式存储在用户主目录下的Markdown和JSON文件中,这意味着任何恶意软件都有可能一次性窃取所有授权信息和个人隐私。

除了系统层面的风险,OpenClaw还面临来自prompt注入的威胁。攻击者可以在网页或邮件中嵌入恶意指令,当AI处理相关内容时,可能在用户不知情的情况下执行文件转发、数据删除等操作。此外,OpenClaw的Skills生态允许第三方开发者自由发布各种技能插件,但这些插件缺乏严格的审核机制,可能成为模型失控或遭受攻击的载体。

攻击向量与生态隐患

值得注意的是,尽管微软、苹果等操作系统厂商拥有得天独厚的技术优势,却并未在系统底层集成这类AI Agent能力。这并非技术限制,而是出于对失控风险的谨慎考量——相比应用层AI,系统底层AI一旦出现问题将几乎无法及时制止,可能造成不可逆的严重后果。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI