Integrationen

Überall verbunden

Hermes Agent arbeitet mit deinen liebsten Messaging-Apps, Model-Providern und Tool-Protokollen zusammen. Gleicher Speicher, gleiche Skills, erreichbar von überall, wo du ohnehin chattest.

chat_bubble

Messaging-Plattformen

Hermes kann als Gateway auf Telegram, Discord, Slack, WhatsApp, Signal, E-Mail und dem CLI laufen (README). Starte ein Gespräch auf einer Plattform und mach auf einer anderen weiter — das Gedächtnis folgt dir.

Verfügbar

WhatsApp

Hermes betreibt ein WhatsApp-Gateway out of the box — der Installer holt Node.js v22 eigens dafür, damit die WhatsApp-Bridge funktioniert. In der README neben Telegram, Discord und Slack gelistet.

README-gelistetQR-PairingDMsGruppen

settings hermes gateway nach dem Install-Script ausführen

Verfügbar

Telegram

In der README als First-Class-Messaging-Plattform gelistet. Bot-Token über den hermes-setup- oder hermes-gateway-Wizard verbinden.

README-gelistetBot APIGruppenMedien

settings Bot-Token von @BotFather während hermes setup einfügen

Verfügbar

Discord

In der README als First-Class-Messaging-Plattform gelistet. Hermes als Discord-Bot betreiben — Channels, Threads und DMs funktionieren alle.

README-gelistetChannelsThreadsDMs

settings Bot auf discord.dev erstellen, Token in hermes setup einfügen

Verfügbar

Slack

In der README gelistet und als eigenes pyproject-Extra (slack) verfügbar. Als Slack-Workspace-App installieren und deinen Channel mit Hermes verbinden.

README-gelistetpyproject-ExtraChannelsDMs

settings Slack-App erstellen, im Workspace installieren, Token über hermes setup hinzufügen

Verfügbar

Signal

In der README als First-Class-Messaging-Plattform gelistet. Über ein Signal-Relay verbinden, damit Hermes auf verschlüsselte DMs und Gruppen antworten kann.

README-gelistetE2E-VerschlüsselungDMsGruppen

settings Gerät während hermes gateway verknüpfen

Demnächst

iMessage

Nicht offiziell in der Hermes-README oder Docs gelistet. Das Hermes-Team positioniert macOS-Support über CLI und verbundene Chat-Gateways; für iMessage nutzt die Community typischerweise eine Drittanbieter-Bridge.

Nur Communitynicht in READMEmacOS-BridgeExperimentell

settings Community-Bridge — noch kein offizieller Weg

Demnächst

Microsoft Teams

Nicht in der Hermes-README oder den pyproject-Extras gelistet. Keine offizielle Teams-Integration ist upstream dokumentiert.

Nicht dokumentiertCommunity-Wunschkein offizielles Extra

settings Keine offizielle Integration

Verfügbar

Matrix

Als eigenes pyproject-Extra (matrix) verfügbar. Mit uv pip install -e ".[matrix]" installieren, um das Matrix-Gateway zu aktivieren.

pyproject-ExtraFederationE2EDezentral

settings [matrix]-Extra installieren und Homeserver konfigurieren

Demnächst

WebChat

Nicht explizit in der README oder den Install-Docs dokumentiert. Das Hermes-CLI ist als First-Class-Kanal gelistet; eine Browser-Oberfläche ist nicht das primäre Interface.

Nicht dokumentiertCLI ist primärsiehe Docs für Updates

settings Kein dediziertes Web-UI dokumentiert

psychology

Model-Provider

Hermes ist modellagnostisch. Die README listet Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI und Custom-Endpoints. Anthropic und Mistral werden als First-Class-Dependencies in der pyproject.toml mitgeliefert.

Tip: Unsicher, welches Modell? Nous Portal betreibt Nous Researchs eigene Hermes-Modelle und ist der Haus-Standard. OpenRouter routet über 200+ Modelle mit einem Key. Anthropic Claude und OpenAI GPT werden als direkte Dependencies mitgeliefert. Nutze ein lokales Modell über einen OpenAI-kompatiblen Endpoint (z.B. Ollama), wenn du null Cloud-Abhängigkeiten willst.

Verfügbar

Anthropic

Das anthropic Python SDK ist eine direkte Dependency in der pyproject.toml, Claude wird also nativ als Model-Provider unterstützt.

pyproject-DependencyClaude-ModelleTool UseLong Context

settings API-Key auf console.anthropic.com holen, über hermes model hinzufügen

Verfügbar

OpenAI

Das openai Python SDK ist eine direkte Dependency in der pyproject.toml und wird in der README explizit als unterstützter Provider gelistet.

README-gelistetpyproject-DepOpenAI-kompatible Endpoints

settings API-Key auf platform.openai.com holen, über hermes model hinzufügen

Demnächst

Google

Nicht als First-Party-Provider in der Hermes-README oder den pyproject-Dependencies genannt. Gemini-Modelle sind trotzdem über einen OpenAI-kompatiblen Proxy oder OpenRouter erreichbar.

Nicht direktüber OpenRouterCommunity-Proxies

settings Über OpenRouter oder einen kompatiblen Proxy routen

Demnächst

xAI

Nicht als First-Party-Provider in der Hermes-README oder den pyproject-Dependencies genannt. Grok ist über OpenRouter oder einen benutzerdefinierten OpenAI-kompatiblen Endpoint erreichbar.

Nicht direktüber OpenRouterCustom-Endpoint

settings Über OpenRouter oder einen kompatiblen Endpoint routen

Verfügbar

OpenRouter

In der README explizit als ‚OpenRouter (200+ Modelle)' gelistet — ein einziger API-Key gibt dir Zugang zu den meisten gängigen Model-Providern.

README-gelistet200+ Modelleein API-Key

settings API-Key auf openrouter.ai holen, über hermes model hinzufügen

Verfügbar

Mistral

Als eigenes pyproject-Extra (mistral) verfügbar. Mit uv pip install -e ".[mistral]" installieren, um den Mistral-Provider zu aktivieren.

pyproject-ExtraMistral LargeCodestral

settings [mistral]-Extra installieren, Key über hermes model hinzufügen

Demnächst

DeepSeek

Nicht als First-Party-Provider in der Hermes-README oder den pyproject-Dependencies genannt. DeepSeek bietet einen OpenAI-kompatiblen Endpoint, der sich als Custom-Endpoint einbinden lässt.

Nicht direktCustom-EndpointOpenAI-kompatibel

settings Als Custom-Endpoint in hermes model konfigurieren

Demnächst

Perplexity

Nicht als First-Party-Provider gelistet. Perplexity ist eher ein Suchprodukt als ein reiner Model-Provider; die Websuche in Hermes läuft stattdessen über die exa-py- und firecrawl-py-Dependencies.

Nicht direktSuche über Exa/Firecrawl

settings Die eingebauten Websuch-Tools verwenden

Demnächst

Hugging Face

Nicht als First-Party-Provider genannt. Hugging-Face-Inference-Endpoints, die die OpenAI-API sprechen, können als Custom-Endpoints hinzugefügt werden.

Nicht direktCustom-EndpointInference API

settings Als Custom-Endpoint in hermes model konfigurieren

Verfügbar

Local Models

Die README sagt ‚or your own endpoint' — Ollama exponiert eine OpenAI-kompatible API und lässt sich somit sauber als lokaler Endpoint ohne Cloud-Abhängigkeiten einbinden.

Custom-Endpointlokale Modelleofflinefähig

settings Ollama installieren, hermes model auf http://localhost:11434 zeigen

cloud

Sandbox-Backends

Hermes unterstützt laut README sechs Terminal-Sandbox-Backends: Local, Docker, SSH, Daytona, Singularity und Modal. Wähle eins, um die Befehlsausführung von deinem Host-System zu isolieren.

Demnächst

Cloudflare

Nicht als offizielle Integration gelistet. Das Hermes-Team liefert keinen Cloudflare-Workers-Deployment-Pfad im Upstream-Repo.

Nicht dokumentiertSelf-hosted onlysiehe Docs

settings Kein offizieller Cloudflare-Pfad

home

Smart Home

Hermes liefert ein optionales homeassistant-Extra (pyproject.toml). Steuere Lichter, Thermostate, Schlösser, Szenen und Automationen per natürlicher Sprache, sobald du eine Home-Assistant-Instanz verbindest.

Verfügbar

Home Assistant

Als eigenes pyproject-Extra (homeassistant) verfügbar. Mit uv pip install -e ".[homeassistant]" installieren, um Lichter, Thermostate, Szenen und Automationen per Chat zu steuern.

pyproject-Extra1000+ HA-GeräteSzenenAutomationen

settings [homeassistant]-Extra installieren, HA-Token hinzufügen

Demnächst

Philips Hue

Keine eigenständige Integration — Philips-Hue-Lampen werden über das homeassistant-Extra gesteuert, sobald deine Bridge mit Home Assistant verbunden ist.

Über Home Assistantkeine direkte Integration

settings Hue über Home Assistant anbinden

code

Entwickler-Tools

Hermes exponiert seine Tools über die offenen MCP- (Model Context Protocol) und ACP-Standards (Agent Connect Protocol), sodass jeder MCP-kompatible Editor oder jedes Tool damit kommunizieren kann. Siehe docs/user-guide/features/mcp.

Demnächst

GitHub

Keine First-Party-Integration. Einen Community-GitHub-MCP-Server über das [mcp]-Extra verbinden — die Hermes-Seite docs/user-guide/features/mcp zeigt wie.

Über MCPCommunity-Servernicht direkt

settings [mcp]-Extra installieren, GitHub-MCP-Server anbinden

Demnächst

VS Code

Keine First-Party-Integration. Hermes exponiert seine Tools über MCP, daher kann jeder Editor mit MCP-Client-Support es ansteuern. Im Hermes-Repo und auf agentskills.io nach Community-Bridges schauen.

Über MCPCommunity-Bridgesnicht direkt

settings Eine MCP-kompatible VS-Code-Extension verwenden

Verfügbar

Docker

Docker ist eines von sechs Terminal-Sandbox-Backends, die in der README aufgeführt sind (Local, Docker, SSH, Daytona, Singularity, Modal). Damit isolierst du die Befehlsausführung von deinem Host.

README-gelistetes SandboxContainer-Isolationsechs Backends gesamt

settings Hermes-Sandbox in der Config auf Docker setzen

task_alt

Produktivität

Dauerhaftes Gedächtnis (über Honcho), prozedurale Skills von agentskills.io, Cron-Scheduling und SOUL.md-Persönlichkeitskonfiguration lassen Hermes deine Projekte, Vorlieben und Arbeitsweisen im Gedächtnis behalten.

Demnächst

Notion

Keine First-Party-Integration. Hermes unterstützt MCP-Server — Community-Notion-MCP-Server sind der empfohlene Weg.

Über MCPCommunity-Servernicht direkt

settings Einen Community-Notion-MCP-Server anbinden

Demnächst

Obsidian

Keine First-Party-Integration. Hermes auf deinen Vault als Plain Files zeigen lassen und einen Community-Obsidian-MCP-Server nutzen, wenn du Graph-basierten Zugriff brauchst.

Über MCPDateizugriffCommunity-Server

settings Einen Community-Obsidian-MCP-Server anbinden

Demnächst

Trello

Keine First-Party-Integration. Kein Trello-Extra oder Docs-Seite existiert upstream.

Nicht dokumentiertCommunity-Wunsch

settings Keine offizielle Integration

music_note

Musik & Audio

Nicht offiziell dokumentiert. Für Musiksteuerung verbindet die Community das typischerweise über einen eigenen MCP-Server oder einen Skill auf agentskills.io.

Demnächst

Spotify

Keine First-Party-Integration. Kein Spotify-Extra oder Docs-Seite existiert upstream.

Nicht dokumentiertCommunity-Wunsch

settings Keine offizielle Integration

devices

Betriebssysteme

Hermes läuft auf Linux, macOS, WSL2 unter Windows und Android via Termux (README). Natives Windows wird explizit nicht unterstützt.

Verfügbar

macOS

Das Install-Script unterstützt macOS direkt — es erkennt macOS und führt den Standard-uv-Flow aus. Das CLI ist das primäre Interface.

Install-Script unterstütztCLIPython 3.11

settings Das curl-Install-Script ausführen

Demnächst

iOS

Keine native iOS-App ist upstream dokumentiert. Hermes von iOS aus erreichen, indem du ein beliebiges Chat-Gateway (Telegram, Signal etc.) mit einem Always-on-Host verbindest.

Keine native Appüber Chat-Gateway

settings Hermes auf einem anderen Host verbinden, von iOS aus chatten

Verfügbar

Android

Die README unterstützt Android explizit via Termux. Das Install-Script erkennt Termux automatisch und verwendet das getestete .[termux]-Extra statt .[all].

README-gelistetTermux nativ.[termux]-Extra

settings Das Install-Script in Termux ausführen

Verfügbar

Linux

First-Class-Linux-Support — das Install-Script ist primär auf Linux-Distributionen getestet, nutzt uv zur Verwaltung von Python 3.11 und einem venv unter ~/.hermes/hermes-agent/.

Install-Script unterstütztPython 3.11uv-verwaltet

settings Das curl-Install-Script ausführen

Brauchst du eine individuelle Integration?

Hermes Agent exponiert seine Tools über MCP und ACP. Baue deine eigene Integration als Skill oder MCP-Server — das Nous-Research-Repo ist die Quelle der Wahrheit.

Auf dem Laufenden bleiben

Community-Updates zu Hermes-Agent-Releases, neuen Skills und Integrationen. Kein Spam, jederzeit abbestellbar.