Pasé un sábado lluvioso leyendo las siete notas de versión de Hermes Agent de una sentada. Es el tipo de plan de fin de semana que suena aburrido al contarlo pero que en realidad es bastante divertido si eres el tipo de persona que disfruta viendo cómo un proyecto se va encontrando a sí mismo en público. Al final tenía la pared llena de post-its, cuatro cafés encima, y una imagen bastante clara de la forma de lo que había pasado.
Entre la primera etiqueta pública el 12 de marzo de 2026 y la versión v0.8.0 el 8 de abril, Hermes Agent publicó siete lanzamientos numerados en veintisiete días. Eso es un lanzamiento cada cuatro días de media. Si sumas los PRs de todos esos lanzamientos, entras en las cuatro cifras. El número de contribuidores creció de sesenta y tres en el lanzamiento a bastante más de doscientos.
Esos números no son la parte interesante. La parte interesante es que los lanzamientos no parecen un flujo largo e indiferenciado de PRs. Se ordenan solos en cuatro fases claras, y puedes ver al proyecto cambiar a qué le presta atención cada semana más o menos.
Fase 1: Cimientos (v0.2.0)
La v0.2.0 del 12 de marzo es el lanzamiento público, y su trabajo era entregar un esqueleto funcional: el gateway de mensajería multi-plataforma (Telegram, Discord, Slack, WhatsApp, Signal, IMAP/SMTP, Home Assistant en un solo proceso), un cliente nativo de Model Context Protocol, un sistema de skills con más de setenta skills integrados, un router centralizado de proveedores con un único punto de entrada call_llm(), y aislamiento con git worktrees más checkpoints del sistema de archivos como red de seguridad para un agente que de verdad tiene permiso para modificar tu máquina. La integración ACP con VS Code, Zed y JetBrains hizo que no fuera solo una cosa de terminal desde el día uno.
Este es el lanzamiento de "esto es lo que es la cosa". Todo lo que viene después se construye sobre estas cinco decisiones.
Fase 2: Amplitud (v0.3.0 – v0.5.0)
Los tres lanzamientos siguientes, entre el 17 de marzo y el 28 de marzo, trataban de extender la superficie de contacto en todas direcciones.
v0.3.0 el 17 de marzo añadió streaming en todo el bucle del agente, hooks del sistema de plugins, y la primera de las grandes integraciones de memoria — Honcho como proveedor de memoria. Este es el lanzamiento que convirtió a Hermes de "un proceso con herramientas" en "un proceso con un ecosistema de plugins vivo y una capa de memoria".
v0.4.0 el 23 de marzo fue expansión de plataformas: API de WhatsApp Business, Signal con soporte completo de adjuntos, y un puñado de adaptadores de gateway más pequeños. Más puertas de entrada para el mismo agente.
v0.5.0 el 28 de marzo fue un lanzamiento de consolidación. Correcciones de concurrencia, condiciones de carrera en sesiones, manejo de resultados de herramientas, peculiaridades de proveedores. El tipo de trabajo que no acaba en un reel de highlights pero sin el cual nada de lo de arriba funciona.
Leyendo estas tres juntas, ves al proyecto intentando responder una pregunta: "ahora que tenemos un núcleo, ¿cuánto del mundo real podemos alcanzar desde él sin romperlo?" La respuesta, al final de la v0.5.0, era la mayor parte.
Fase 3: Durabilidad (v0.6.0 – v0.7.0)
Entonces el foco cambia. La v0.6.0 del 30 de marzo y la v0.7.0 del 3 de abril tratan de hacer que la cosa sobreviva.
v0.6.0 añadió Perfiles — Hermes multi-instancia, donde una instalación puede ejecutar varios agentes completamente aislados con su propia configuración, memoria, sesiones, skills y servicios de gateway. También incluyó modo servidor MCP, para que Hermes pueda exponerse a otros clientes MCP como Claude Desktop o Cursor, y un contenedor Docker oficial. Además introdujo cadenas de fallback ordenadas entre proveedores, que es donde la historia de "cambia de proveedor sin reconstruir" empieza a tener peso. Dos plataformas de mensajería nuevas, Feishu/Lark y WeCom, se unieron al gateway.
v0.7.0, el lanzamiento de resiliencia, es donde la arquitectura se puso genuinamente defensiva. Proveedores de memoria conectables — la memoria se convierte en una ABC de Python que terceros pueden implementar, con Honcho como plugin de referencia. Pools de credenciales del mismo proveedor con rotación thread-safe por uso y failover ante 401. Backend de navegador anti-detección Camofox para trabajo web sigiloso. Previsualizaciones de diffs inline para operaciones de escritura y parche de archivos. Continuidad de sesión del servidor API mediante cabeceras X-Hermes-Session-Id. Un pase de seguridad contra exfiltración de secretos, escaneando respuestas del LLM en busca de credenciales en base64 y codificadas en URL.
Al final de la v0.7.0, el proyecto había dejado de parecer algo nuevo y empezaba a parecer infraestructura. Del tipo que ejecutarías bajo un cron job sin preocuparte.
Fase 4: Inteligencia (v0.8.0)
Lo que nos lleva al 8 de abril y la v0.8.0, el lanzamiento del que escribí en los dos artículos anteriores. El titular es el loop auto-optimizado de guía de herramientas para GPT/Codex — el agente diagnosticando y parcheando sus propios modos de fallo en modelos de OpenAI mediante benchmarking conductual automatizado. Pero leído en el contexto del arco de cuatro fases, hace algo específico: es el primer lanzamiento en el que el proyecto volvió la atención hacia adentro, hacia la calidad del razonamiento del propio agente, después de tres semanas expandiéndose hacia fuera. Cambio de modelo en vivo con /model, Gemini gratis, MiMo v2 Pro gratis, notificaciones de tareas en segundo plano, timeouts por inactividad, botones de aprobación, MCP OAuth 2.1 PKCE, escaneo de malware OSV para extensiones MCP. 209 PRs. 82 issues resueltos. Cinco días después de la v0.7.0.
Qué te dice el ritmo
Mirando todo esto como un arco continuo, tres cosas destacan.
Los lanzamientos tienen temas, y los temas no se repiten. Cimientos, amplitud, durabilidad, inteligencia. Nadie parece haber decretado que así debía ser — el proyecto simplemente se comporta como si supiera qué toca después. Eso suele significar que un grupo pequeño de personas está prestando mucha atención a toda la superficie, y el resto tira en la misma dirección porque la dirección es obvia.
Los PRs vienen de muchas manos. Esto no es un mantenedor y seis colgados. Las notas de versión están salpicadas de handles que no reconozco. Pull requests anónimos de gente que apareció la semana pasada. El proyecto se comporta como una escena, no como un código base. Y las escenas, cuando funcionan, lanzan mucho más rápido que los equipos.
La velocidad no es solo cantidad — es acumulativa. La v0.2.0 sacó el router. La v0.6.0 montó cadenas de fallback encima del router. La v0.7.0 montó pools de credenciales encima de las cadenas de fallback. La v0.8.0 montó cambio de modelo en vivo con /model encima de las tres. Cada lanzamiento no es un conjunto nuevo de funcionalidades; es una capa que asume que el lanzamiento anterior es estable. No puedes hacer eso si los lanzamientos no son realmente estables. Así que o los tests son de verdad, o la velocidad ya habría matado al proyecto. No lo ha hecho, y eso te dice algo.
Vale la pena aclarar que no soy parte del equipo de Hermes. Soy un fan que lee notas de versión por diversión y mantiene este sitio porque el proyecto es más interesante de lo que su superficie de marketing sugiere. Lo que estás viendo, a lo largo de estos veintisiete días, son siete lanzamientos de evidencia de que la ingeniería de agentes en la capa open-source se volvió considerablemente más interesante en marzo y abril de 2026. No sé qué va a ser la v0.9.0. Sea lo que sea, voy a leer las notas el día que salgan.