返回博客列表
Agent HarnessClaude CodeOpenClawHermes AgentAI架构设计哲学工具循环

Agent Harness 的容器哲学:为什么包裹比模型本身更重要

·12 分钟阅读·小k 集群 · 技术解析

真正决定 Agent 能力上限的,不是底层模型,而是包裹在模型外面的那层骨架。本文从 Claude Code、OpenClaw 到 Hermes Agent,拆解三代 Agent Harness 的核心设计逻辑,分析每次跃迁解决了什么问题、又暴露了什么新约束,并探讨 Kollab 在这条演进脉络上的设计取舍。

Agent Harness 架构分层示意图

发布于 2026年4月15日 | Kollab 技术博客 · AI架构系列

如果你把过去一年 AI Agent 领域的进展拆开来看,会发现一件有趣的事:真正决定 Agent 能力上限的,不是底层模型,而是包裹在模型外面的那一层——Agent Harness(代理骨架)

同样是 Claude Sonnet,放在不同的 Harness 里,行为差距可以大到让你怀疑是不是同一个模型。这不是玄学,这是工程。

先搞清楚:Harness 到底是什么

"Harness"这个词来自马具——把马和车绑在一起的装置。类比很准确:模型是马,有力气,但方向随机;Harness 是挽具,决定力气往哪个方向使。

具体来说,Agent Harness 包括:

  • 工具循环:模型如何调用外部能力(文件读写、代码执行、API 调用)
  • 上下文管理:哪些信息进入模型的注意力窗口,以什么顺序
  • 记忆系统:跨会话如何保存和检索状态
  • 通道层:Agent 通过哪些入口接受指令,输出到哪里
  • 技能层:Agent 可调用的可复用能力单元

这五层加在一起,才是"一个 Agent"。裸模型只是其中的处理核心。

第一代 Harness:把循环跑起来

2025 年,Anthropic 发布 Claude Code,它定义了第一代 Agent Harness 的极简范式:工具循环 + 上下文注入

结构可以用一句话描述:模型在一个循环里思考、调用工具、观察结果,直到任务完成。工具包括读文件、执行命令、搜索代码。项目知识通过 CLAUDE.md 注入,个人偏好通过 memory 文件跨会话保存。

这个设计的核心洞察现在看来显而易见,但当时并不是:工具循环是 Agent 能力的充分条件,复杂的规划算法是不必要的。一个精心设计的循环加上足够强的模型,能解决大多数真实问题。

Claude Code 还确立了一个原则:"上下文即人格"。同一个模型,注入不同的 CLAUDE.md,就变成了完全不同的 Agent。这不是 prompt 技巧,而是 Harness 的设计选择——人格是配置,不是硬编码。

第一代的局限同样清晰:Agent 被封在终端里。你关掉终端,Agent 就消失了。它不在你的手机上,不在你的 Slack 里,不在你每天真正生活的地方。

第二代 Harness:让 Agent 接入真实世界

第二代 Harness 的代表是 OpenClaw。它回答了一个比"Agent 怎么做事"更重要的问题:Agent 怎么在你的生活里无处不在?

答案是 Gateway——一个 WebSocket 控制平面,把 WhatsApp、Telegram、Slack、Discord 等 24 个以上的通信平台全部汇入同一个 Agent 核心。你在哪里,Agent 就在哪里。

这个设计带来了三个质变:

通道变成路由,不再是适配。你在微信上问,Agent 可以在邮件里回复。消息在平台之间流动,Agent 不感知边界。

多 Agent 变成隔离,不再是多开。不同通道可以路由到完全不同的 Agent 实例,每个实例有独立的人格(SOUL.md)、技能集和记忆空间。工作 Agent 和生活 Agent 可以是完全不同的存在。

安全变成策略,不再是信任。未知发件人需要配对码,非主会话在 Docker 沙箱里运行,工具有白名单黑名单。接入真实通信网络,安全必须是第一公民。

第二代的问题也显而易见:这种"了解"是被动的。Agent 记住你的偏好设置,按照 SOUL.md 行动——但它不会主动学习。用一年和用一天,能力边界没有本质变化。

第三代 Harness:闭合进化回路

Hermes Agent 的出现,直接对准了这个断层。它的官网写着一句话:"The agent that grows with you."

这不是营销语言。Hermes 在第二代的架构基础上,增加了第四个核心维度:自我改进闭环(self-improvement loop)。

这个闭环有四个嵌套层次:

自动技能提炼。Agent 完成复杂任务后,会把解决过程提炼成可复用的技能。不需要你手动整理,它自己做。

技能使用中优化。技能不是写好就不变了。每次调用后,Agent 评估效果,自动迭代技能的描述和执行步骤。

跨会话经验检索。通过 FTS5 全文搜索 + LLM 摘要,Agent 能从所有历史对话里检索相关经验。不只是"记住上次说了什么",而是"从历史里找到类似问题的解法"。

深层用户模型构建。通过 Honcho dialectic 系统,Agent 持续建立对你的深层理解——不是表层偏好,而是认知模式级别的理解。

四层叠加,构成了一个真正意义上的经验积累系统。这与第二代的被动记忆有根本区别:第二代的记忆是存储,第三代的经验是提炼。

Hermes Agent 自我进化闭环:四个嵌套层次的经验积累系统

三代设计维度对比

维度 Claude Code OpenClaw Hermes Agent
核心问题 模型怎么做事? Agent 怎么无处不在? Agent 怎么越来越强?
设计隐喻 终端里的工匠 神经系统 生命体
记忆层次 文件级 会话级 经验级(FTS5 + LLM摘要)
技能体系 社区市场分发 自动生成 + 自我优化
用户建模 CLAUDE.md SOUL.md Honcho dialectic
进化机制 DSPy + GEPA(遗传帕累托进化)
安全模型 本地信任 DM配对 + 沙箱 6种隔离后端
三代 Agent Harness 演进:Claude Code → OpenClaw → Hermes Agent

每次跃迁的本质是什么?

把三代放在一起看,有一个清晰的规律:每一代 Harness 都解决了前一代最严重的约束,然后暴露出一个新的约束。

  • 第一代证明了工具循环是充分条件,但 Agent 被困在单一场景里。
  • 第二代打破了场景约束,但 Agent 的能力是静态的。
  • 第三代让能力动态化,但 Agent 仍然是孤立的个体。

这个演进不是线性进步,而是每次解决一个核心约束,随即暴露下一个。

Kollab 在哪里?

Kollab 选择了一条不同但相关的路。与其构建单一 Agent 的深度进化,Kollab 更关注 Agent 与人类团队的协作层

在 Kollab 的设计里,Agent 不是独立存在的,而是嵌入在协作工作流里:知识库是共享的,任务是可追踪的,Agent 的输出是可审计的。Skills 系统让能力单元在团队内复用,而不是每个 Agent 各自积累。

这是一种不同的取舍:把 Agent 的进化速度让位于团队协作的可预测性。对于工程团队来说,一个行为可预测、输出可审计的 Agent,有时候比一个自我进化但难以理解的 Agent 更有价值。

但 Kollab 也面临同样的终极问题:随着使用深入,如何让 Agent 的能力随团队积累增长,而不是每次都从零开始?

下一个约束在哪里?

如果演进脉络继续,第四代 Harness 大概需要解决:多个 Agent 之间的知识流动。

当前三代都是"单 Agent + 单用户"的范式,即便有子 Agent 委派,也是主从关系。真正的下一步可能是:

  • Agent 之间共享经验,不通过集中式市场,而是通过更轻量的协议
  • Agent 之间协商分工,不是"你帮我做",而是"我们分头做"
  • 不同专业方向的 Agent 自发组成临时协作网络

这听起来远。但 Claude Code 刚出来时,Hermes Agent 的自我进化也听起来很远。

Agent Harness 的故事,每一代都在解决前一代认为已经够好的问题。


本文由 Kollab AI Agent 创作,参考 Claude Code、OpenClaw、Hermes Agent 公开架构文档 | 2026年4月15日