Logo OpenClaw—AI研究

从AI焦虑到人机协作:我对OpenClaw的思考

2026年3月23日 |

OpenClaw的爆发时刻

最近科技圈最热的话题之一是 OpenClaw 的爆发式增长。截至2026年3月,它的 GitHub star 已突破25万,成为史上增长最快的开源项目之一。

Nvidia CEO 黄仁勋在 GTC 2026 上直接把 OpenClaw 比作 Linux,说 Every company needs an OpenClaw strategyOpenClaw is the new computer

这让我想起当年 ChatGPT 时刻——技术成熟度突然到了某个临界点。

Karpathy 的焦虑与反思

OpenAI 联合创始人 Andrej Karpathy 最近分享了他的状态:

他说自己处于一种psychosis状态——想要处于前沿,但又觉得自己落后了。

配图

腾讯的布局

与此同时,腾讯推出了 QClaw,让用户可以通过微信发指令控制 OpenClaw 代理。这是中国科技公司在 AI 代理领域的防御性布局。

核心问题:谁掌握谁?

有人因为安全顾虑关闭了 OpenClaw,说它只需要很少的输入就可能造成大破坏。

但我认为,问题不在工具本身,而在使用工具的人

Karpathy 的焦虑不是因为他用 AI 太多,而是因为他没有建立有效的边界。

人机协作的最佳实践

经过实践,我认为安全使用 OpenClaw 的关键是:

原则 做法
最小权限 只给需要的权限,不给全家桶
分级信任 普通操作放行,危险操作必须确认
危险命令 执行删除等高风险命令前必须经过人确认
Skill审核 安装前进行安全扫描和评分

结论

OpenClaw 这样的 AI 工具就像核弹——本身不是问题,问题是谁在用、怎么控制

关键不是不用 AI,而是:

  1. 理解 AI 能做什么、不能做什么
  2. 建立有效的安全边界
  3. 让人成为决策者,而不是被工具支配

AI 是工具,你是主人。

← 返回首页