🏗️ 架构说明
了解 Hermes Agent 的内部架构,帮助你更好地使用和扩展它。
整体架构
Hermes Agent 由以下核心模块组成:
- LLM 调度器:与各种 LLM 提供商通信(OpenAI、Anthropic、OpenRouter 等)
- 工具引擎:47 个内置工具的执行环境
- 记忆管线:FTS5 全文搜索 + 向量存储的混合记忆系统
- 技能管理器:技能的创建、加载、改进和调度
- 消息网关:统一的多平台消息收发
- 终端后端:命令执行的运行环境
- Cron 调度器:定时任务的调度和投递
终端后端 (Terminal Backends)
Hermes 支持 6 种终端后端,决定了命令执行的环境:
| 后端 | 适用场景 | 特点 |
|---|---|---|
| Local | 个人使用 | 直接在本地执行,零配置 |
| Docker | 隔离环境 | 容器化执行,安全隔离 |
| SSH | 远程服务器 | 通过 SSH 连接远程执行 |
| Daytona | 无服务器 | 开发环境即服务,空闲时休眠 |
| Singularity | HPC 集群 | 高性能计算环境 |
| Modal | 无服务器 GPU | 按需 GPU,空闲时成本几乎为零 |
消息网关架构
消息网关采用统一抽象层设计:
用户消息 → [平台适配器] → 统一消息格式
↓
[消息处理器]
↓
[LLM + 工具 + 记忆]
↓
[响应生成]
↓
[平台适配器] → 发送到对应平台 每个平台有一个「适配器」负责将平台特定的消息格式转换为 Hermes 的内部格式,反之亦然。
记忆与技能管线
用户输入
↓
[会话记忆] ← FTS5 搜索相关历史
↓
[技能匹配] ← 触发条件检测
↓
[LLM 推理] ← 工具调用 + 记忆注入
↓
[记忆更新] → 保存新学到的事实
↓
[技能学习] → 可选:创建/更新技能
↓
[用户建模] → Honcho 辩证更新 LLM 提供商
Hermes 支持多种 LLM 提供商,通过统一接口调用:
- Nous Portal:Nous Research 的官方平台
- OpenRouter:多模型聚合网关
- OpenAI:GPT-4、GPT-4o 等
- Anthropic:Claude 系列
- Google:Gemini 系列
- 自定义端点:任何 OpenAI 兼容的 API
研究就绪
Hermes Agent 还提供了面向研究者的功能:
- 批处理:大规模并行任务处理
- 轨迹导出:导出完整的推理轨迹用于分析
- RL 训练:与 Atropos 集成进行强化学习训练