摘要:过去大家聊 AI,焦点几乎都在“模型更强了没有”。但我最近越来越觉得,真正开始改变使用体验的,不只是回答更聪明,而是 AI 开始接入消息、记忆、工具和自动化,慢慢变成一个可以持续协作的助手系统。OpenClaw 这类框架最有意思的地方,不是把一句回答再优化 10%,而是让 AI 第一次显得像“在上班”。当然,这种未来感并不便宜:长上下文烧 token,权限边界危险,prompt attack 风险也很现实。它让我兴奋,也让我警惕。

写在前面

我最近对一类 AI 新闻,明显没以前那么兴奋了。

不是因为模型不强了,而是因为那种“又更强一点”的更新,已经越来越像参数表上的胜利,不一定会立刻变成日常体验上的质变。

反过来,真正让我觉得有意思的,反而是另一条线:AI 开始不只是回答问题,而是开始像助手一样工作。

OpenClaw 给我的冲击,就来自这里。

我最初去装它,其实没什么高深原因——它很火,而我是学 AI 的,新东西出来我一般都会第一时间去试。结果真正用下来后,我发现吸引我的根本不是“它背后接了哪个模型”,而是它开始有了另一种形态:

  • 能接入聊天入口
  • 能做自动化
  • 能调用工具
  • 能持续待在工作流里
  • 甚至会让人产生一种“像在带员工”的错觉

这篇文章不打算写安装教程,也不打算罗列功能清单。

我更想聊的是:为什么我觉得 2026 年真正有意思的,不是更强的大模型,而是 OpenClaw 这类 AI 助手框架。


先说结论

如果只用一句话概括我的看法,那就是:

模型更强,提升的是回答质量;助手框架更有意思,改变的是 AI 的存在方式。

我现在对 OpenClaw 的整体判断,大概可以浓缩成下面这张表:

维度 我的判断
最吸引我的点 自动化、可 DIY、可玩性高
最强的体验差异 它开始像一个“在线助手”,不只是聊天框
真正门槛 不是不会装,而是你自己有没有玩法
最实用场景 定时任务、分析流程、接消息持续协作
最大现实问题 上下文太长,token 消耗太大
最大风险 权限过高,容易被 prompt attack 利用

如果你只想看一页,这张表基本就是全文核心。


一、过去我们太习惯把 AI 当成“聊天框”了

这两年大多数人使用 AI,其实都还是同一种姿势:

打开网页 → 提一个问题 → 拿到答案 → 关掉页面。

这个模式当然有效,也确实覆盖了很多需求,比如:

  • 查资料
  • 写点文字
  • 解释概念
  • 写一小段代码
  • 做一次临时 brainstorming

但问题也很明显:它几乎总是一次性的、被动的、短周期的

你必须主动打开它,主动喂上下文,主动定义任务,然后一轮一轮把事情推下去。页面一关,很多感觉也跟着断掉了。

所以以前大家总在讨论:

  • 谁回答更强
  • 谁推理更稳
  • 谁代码更像样

这些都重要,但它们有一个共同前提:AI 仍然只是一个聊天框。

而我现在越来越觉得,很多人对 AI 的体感之所以一直没有真正“变味”,问题就出在这里。

不是 AI 不够强,而是它的存在方式还太像工具,不像助手。


二、OpenClaw 真正有意思的,不是更聪明,而是更“像在上班”

我对 OpenClaw 最强烈的感受,不是“它真聪明”,而是:

它终于不只是坐在网页里等我提问了。

它开始有一种很特别的“在场感”。

这种在场感,主要来自 4 件事。

1)它有入口,不只是网页

当 AI 能接进 Telegram 这类聊天入口时,感觉会立刻变化。

你不再是在“打开一个网站”,而是在“随手叫一个在线对象做事”。

这两种体验差别非常大。

2)它有动作,不只是回答

一个只会输出文字的 AI,和一个能读文件、写文件、搜索、调工具、执行任务的 AI,本质上已经不是同一种产品。

回答,是脑力展示。

行动,才开始接近助手。

3)它有连续性,不再总是从零开始

这也是为什么很多人第一次用这类框架时,会明显感觉不一样。

你会觉得它不是一次性用品,而是一个可以放在那里持续协作的系统。

4)它有工作流位置

它不再只是“有问题时去问一下”,而是可以嵌进:

  • 每日提醒
  • 定时分析
  • 文件处理
  • 研究/搜索流程
  • 聊天环境中的随手调用

这才是我觉得它最有未来感的地方。


三、最打动我的不是“万能”,而是这 3 个词

如果让我不用大词,直接说 OpenClaw 最吸引我的地方,我会只留三个词:

自动化

很多价值,并不来自单次回答有多惊艳,而是来自它能把重复流程接过去。

最典型的例子,就是每日定时股票分析

这种场景听起来不炫,但非常有代表性:

  • 它有固定频率
  • 它有明确输入输出
  • 它适合自动执行
  • 它完成后能直接回到聊天环境里

一旦这种流程能稳定跑起来,你就会明显感觉到:这不是“AI 帮我答了一次题”,而是“AI 开始替我接一个重复环节了”。

可 DIY

OpenClaw 的魅力,很大一部分不在于它已经给你准备好了什么,而在于它允许你自己去拼。

你可以理解为:

  • 接什么入口
  • 连什么工具
  • 留什么记忆
  • 做什么提醒
  • 怎么串成一条流程

这些东西,本质上都可以由你自己定义。

这就让它不像一个封闭产品,更像一个助手框架。

可玩性高

这点其实很重要。

很多 AI 产品的第一印象很惊艳,但玩两天就差不多了;而 OpenClaw 这类系统比较特别的地方是,它会让你不断想:

“那这个还能不能这么接?”
“这个流程能不能自动化?”
“能不能让它去做得更像一个真实助手?”

这种可玩性,本身就是吸引力的一部分。


四、但说实话:很多人发挥不出它真正的用处

这一点我想写得直接一点。

很多人用不好 OpenClaw 这类东西,不一定是因为工具不行,而是因为人自己没有玩法。

这句话不是在抬高门槛,而是在说一个很现实的问题:

AI 助手框架和普通聊天型 AI 不一样,它不是“打开就自动显神通”的产品。

你要让它真正有价值,前提是你自己得先想清楚:

  • 你想让它长期做什么
  • 哪些任务值得自动化
  • 哪些流程适合交给它
  • 哪些地方必须保留人工确认
  • 你希望它在你的工作流里扮演什么角色

换句话说,模型提供能力,玩法决定价值。

创意、任务设计、流程判断,这些东西目前还是人给的。人如果没有想法,工具再强,也很容易只剩下“好像很厉害,但我不知道拿来干嘛”。

这也是为什么我觉得这类系统特别像“放大器”——它会放大有想法的人的效率,也会放大没想法时的空转。


五、它为什么会让人觉得“像一个真实员工”

这是我最主观、但也是最想保留下来的感受。

OpenClaw 有时候真的会让人产生一种很奇怪的错觉:

你不是在用一个聊天机器人,而像是在带一个数字员工。

当然,这不是说它已经强到能独立负责复杂工作,而是说它开始具备了一些“协作对象”的特征:

  • 你在聊天里叫它,它会接任务
  • 它会自己去操作电脑
  • 它会自己去搜索和调研
  • 它能去做编程和分析
  • 做完之后还能把结果带回来

哪怕它的每一步都还谈不上完美,这种“它真的动起来了”的体感,已经和传统聊天框完全不是一回事。

以前用 AI,更像是在调用一个回答引擎。

现在用这类框架,更像是在安排一个会执行、会回报、会待命的数字助手。

而这种变化,恰恰比“又强了 5%”更让我兴奋。


六、最实用的,不一定是最炫的:一个典型场景

如果让我举一个最容易理解、也最能说明问题的场景,我会选:

每日定时股票分析

这个案例好就好在,它非常符合 AI 助手框架的优势边界。

为什么它适合自动化?

因为它天然具备这几个特征:

  • 有明确的时间点
  • 有相对固定的信息采集流程
  • 有清晰的输出目标
  • 重复劳动占比高

它体现了什么?

它体现的不是“AI 会炒股”,而是:

AI 可以稳定接管一段结构化、重复出现、适合流程化的工作。

这点很重要。

因为很多人一说到 AI 助手,就容易幻想成“万能数字生命体”;但真正落地的价值,往往恰恰来自这些看起来没那么科幻、但很适合长期托管的任务。

这也是我为什么会觉得,OpenClaw 的价值不在“秀能力”,而在“接流程”。


七、但我要泼冷水:这东西现在有两个大问题,而且都很严重

如果前面只写优点,这篇文章就会变得不可信。

所以我必须把最现实的两盆冷水直接泼下来。

问题 1:上下文太长,真的很烧 token

这是我自己最烦的一点。

AI 助手框架一旦追求连续性,就很容易把上下文越拉越长。上下文一长,token 消耗就会迅速上去;token 一上去,成本问题就不再是抽象讨论,而是直接变成一句很现实的话:

养不起。

这点我觉得必须明说。

因为“长期在线助手”这个设定本来就意味着持续运行,而持续运行如果建立在高昂消耗上,那它很快就会从“真有意思”变成“真用不起”。

所以别把这当成一个小缺点,这其实是影响普及度的核心问题之一。

问题 2:安全风险非常大,不能轻描淡写

另一个问题比成本还严重,就是安全。

当一个 AI 只是回答文字时,它出错的后果通常还比较可控;但当一个 AI 开始拥有更高权限,能读文件、能调用工具、能操作系统、还能接收外部消息时,风险等级就完全变了。

最典型的几个危险点包括:

  • 权限过高
  • 工具调用范围过大
  • prompt attack 风险上升
  • 外部输入可能污染执行链路
  • 用户容易高估它的可靠性

我对这件事的态度非常明确:

这不是“以后再说”的小问题,而是 AI 助手框架必须正面解决的底层问题。

因为一旦它真的开始“做事”,那它出错的代价也会远高于普通聊天机器人。


八、所以我为什么还是觉得它值得写?

因为它虽然不成熟,但方向是对的。

我现在越来越觉得,未来几年真正值得看的,不只是模型竞争,还有另一层更关键的竞争:

谁能把 AI 从“会回答”做成“会协作”。

从这个角度看,OpenClaw 这类框架的价值,不在于它今天已经完美,而在于它很早就把这个问题摆到了台面上:

  • AI 要不要有消息入口?
  • 要不要有持久记忆?
  • 要不要接工具?
  • 怎么做自动化?
  • 权限怎么控?
  • 安全边界怎么划?
  • 成本怎么压?

这些问题一旦被认真讨论,就说明 AI 已经开始从“聊天产品”往“助手系统”那边走了。

这才是我觉得它真正有意思的地方。


最后一句话

如果说过去两年最热闹的 AI 叙事是“谁更强”,那我觉得接下来更值得看的问题会变成:

谁更像一个真正能接入日常、长期待命、能持续协作的助手。

OpenClaw 当然还不完美,甚至可以说问题不少。

但它至少让我很清楚地看到了一件事:

未来更有价值的 AI,未必只是更会说,而是更会工作。