打开

“养龙虾”的终点:完美的AI智能体离我们有多远?

东方快评

看看新闻Knews记者 王成

2026-03-11 12:26:28

近期,一个名为OpenClaw的AI项目在技术圈和社交媒体迅速走红。由于最早的图标是一只小龙虾,许多玩家形象地把运行这个系统称为“养龙虾”。与传统聊天机器人不同,OpenClaw是一种“AI智能体”:它不仅能理解用户指令,还可以接管电脑调用工具、访问文件、执行任务,用户离开电脑后它也会继续工作:从整理资料、编写代码到管理文件,一些技术爱好者已经开始尝试让它承担各种日常任务。


OpenClaw并不是一项完全颠覆性的技术,而更像是AI进化道路上的一个新阶段:从1.0 知识检索(如早期 GPT-3)到 2.0 逻辑推理(如 o1、DeepSeek-R1),现在的 OpenClaw 代表了3.0:把“大模型的大脑”和“工具系统的手脚”结合起来,让机器具备行动能力。正因为如此,“养龙虾”带来的兴奋,本质上是人们第一次直观感受到AI从“会说话”迈向“会做事”的转变。


这种看似新奇的体验,让不少人产生了一种想象:如果像OpenClaw这样的系统不断进化,最终会不会出现真正“完美”的智能体?一个能够理解复杂目标、自动规划步骤、几乎不出错的数字助手,甚至成为人类的“分身”?


这个概念虽然很吸引人,但现实技术差距依然很大。首先,当前的AI在理解复杂目标方面依然不稳定。虽然它可以执行简单流程,但在面对模糊任务时,仍然容易误解指令或者做出错误判断。如果一个系统不仅负责回答问题,还拥有读取文件、运行程序的权限,一旦出现误判,影响也会被几何级放大,并且极可能造成不可挽回的损失。给AI行动能力,比给AI聊天能力危险得多。


其次是安全问题,这也是目前OpenClaw最大的争议。AI智能体往往需要较高的系统权限,而开放的插件和技能生态中,难免存在安全漏洞。调查发现,许多“技能插件”包含恶意代码,可以窃取 API 密钥、钱包信息和密码,甚至诱导用户运行恶意命令。还有研究发现,超过1.5 万个代理控制面板暴露在公网,超20万未启用认证或存在弱口令的实例暴露在公网中,攻击者可窃取Token盗刷AI服务,这也是为什么监管部门提醒用户谨慎部署这类系统。


此外,复杂任务的自动化程度仍然有限。虽然社区中出现了许多令人惊艳的案例,例如自动写文章、自动运营社交媒体或自动管理服务器,但这些系统往往仍然需要大量人工调试,目前的AI智能体只能说是“半自动工具”,而不是完全独立的数字助手。


因此,如果把“完美智能体”定义为一个几乎不犯错误、能够长期自主运行并安全执行复杂任务的系统,在当前技术水平下,业界普遍认为距离这一阶段仍然有相当长的路要走。更现实的未来,可能并不是一个无所不能的超级AI,而是一种“人类+智能体”的协作模式。随着技术进步,每个人或许都会拥有多个AI代理:有的负责信息筛选,有的负责写作与数据分析,有的负责管理日程和事务。我们的角色则从具体执行者,逐渐转变为目标设定者和决策者。


历史经验表明,技术往往不会完全取代人类,而是改变人与工具之间的关系。从蒸汽机到互联网,人类始终在通过工具扩展自身能力。AI智能体也应是如此。它不会让人类退出舞台,而是让个体拥有前所未有的生产力。


“养龙虾”的热潮,或许只是一个开始。真正值得关注的问题并不是完美智能体是否会出现,而是当机器越来越能干时,我们将如何重新定义自己的角色。在这个过程中,技术、监管与社会适应之间的平衡,将决定AI时代最终呈现出的模样。

编辑: 王成
责编: 谢春
相关推荐

暂无列表

全部评论

10
暂无评论,快来发表你的评论吧
APP 内打开
打开看看新闻参与讨论