中央网信办数据与技术保障中心发布关于OpenClaw“龙虾”的安全风险提示

时讯
中央网信办数据与技术保障中心
2026-03-10 22:23:24
近期,OpenClaw(曾用名:Clawdbot、Moltbot)(因图标被昵称为“龙虾”)在全球迅速走红,国内更是掀起“养龙虾”热潮。然而,技术热潮之下,安全风险不容忽视。我中心从“龙虾”技术内在风险、新型攻击手法、数据隐私保护、法律合规治理、外部生态信任等五个维度,系统梳理当前已暴露的主要风险点,提醒广大用户强化风险意识,促进人工智能技术朝着有益、安全、公平方向健康有序发展。
提示1——提防AI“内鬼”:技术架构权限失控风险
1.权限边界模糊与越权控制。OpenClaw需持续运行、自主决策并调用系统资源,但默认缺乏严格的权限隔离和审计机制。攻击者可利用这一“信任边界模糊”特性,通过诱导或漏洞让AI执行越权操作,最终完全接管用户系统。
2.算法“幻觉”引发无意识破坏。AI模型固有的“幻觉”问题在获得系统控制权后风险剧增。OpenClaw执行任务时若判断失误,可能误删核心数据、篡改关键指令或进行错误操作,对用户数字资产造成不可逆损害。
提示2——谨防无声入侵:新型漏洞攻击防不胜防
1.提示词注入攻击。OpenClaw创始人警告,部分小模型和一些旧模型存在高风险提示词注入漏洞。攻击者通过构造恶意指令,可让AI忽略安全规则、泄露私密信息或执行高危操作,如诱导AI输出私密文件内容。
2.“ClawJacked”远程控制漏洞。ClawJacked漏洞,允许攻击者仅通过诱导用户访问一个恶意网页,即可远程控制其本地运行的AI Agent。无需安装额外软件,即可实现对系统的完全操控。
提示3——当心数字裸奔:你的隐私正被AI尽收眼底
1.个人行为轨迹数据裸奔。OpenClaw等智能体的工作通常依赖高频屏幕截图和系统底层接口调用,这意味着它能“看见”用户屏幕上的一切行为轨迹。一旦安全防线被突破,动态行为、敏感信息等所有隐私都将彻底曝光。
2.凭证与Token明文泄露风险。报道显示,超20万未启用认证或存在弱口令的实例暴露在公网中,攻击者可窃取Token盗刷AI服务,有用户遭遇Token日均消耗从20元飙升至300元的异常情况。
提示4——莫让责任真空:法律滞后让风险逍遥法外
1.数据合规性风险。OpenClaw在数据抓取和处理上边界模糊,自主执行任务时容易造成损失。由于目前法律对此类AI代理行为的权责划分尚属空白,因此责任难以界定。
2.安全评估风险。OpenClaw作为新兴技术迭代迅速,现有的安全评估标准与实施细则亟需细化,在抢抓产业机遇时风险评估考虑不够充分。
提示5——严防“养虾”陷阱:外部生态暗藏信任危机
1.技能市场大规模投毒。攻击者在官方平台ClawHub批量上传恶意Skills,通过伪装隐蔽、诱导传播等方式可窃取用户敏感数据、接管系统权限、篡改系统数据、破坏系统运行、自动横向渗透攻击。
2.第三方代装服务欺诈。由于安装门槛高,网上涌现大量收费代装服务(50-1000元不等)。有的可能是第三方个人行为,暗藏恶意程序植入、API密钥窃取等风险。用户付费请人“开门”,请进来的却可能是窃贼,导致系统从最初就被植入后门。
3.技术炒作下的认知误导风险。OpenClaw在国内热度远超全球,有的源于技术焦虑和商业化炒作。这种脱离技术实质的狂热,可能误导普通用户盲目投入,消耗大量时间精力却无实际产出,甚至因追逐伪概念而忽视真正有价值的技术方向。
综上,我中心建议大家在“养龙虾”时一定要注意防范潜在的各类安全风险,OpenClaw的火爆,是AI从“动口”走向“动手”的里程碑,也是我国人工智能产业蓬勃活力的生动注脚。对于广大用户而言,拥抱新技术的同时,请务必系好“安全带”,唯有发展与安全并重,才能让“龙虾”踏轨而行,让AI智能体真正成为推动高质量发展的得力助手,而非失控的风险源。
| 编辑: | 施荔 |
暂无列表
全部评论