Connecté partout
Hermes Agent fonctionne avec tes apps de messagerie, fournisseurs de modèles et protocoles d'outils préférés. Même mémoire, mêmes skills, accessible depuis n'importe où.
Messageries
Hermes fonctionne en gateway sur Telegram, Discord, Slack, WhatsApp, Signal, Email et le CLI (README). Commence une conversation sur une plateforme et reprends-la sur une autre — la mémoire te suit.
Hermes fait tourner une gateway WhatsApp nativement — l'installeur récupère Node.js v22 spécifiquement pour que le pont WhatsApp fonctionne. Listé dans le README à côté de Telegram, Discord et Slack.
settings Lance hermes gateway après le script d'installation
Telegram
Listé dans le README comme plateforme de messagerie de premier plan. Connecte un token de bot via hermes setup ou l'assistant hermes gateway.
settings Colle le token bot de @BotFather pendant hermes setup
Discord
Listé dans le README comme plateforme de messagerie de premier plan. Lance Hermes comme bot Discord — channels, threads et DMs fonctionnent tous.
settings Crée un bot sur discord.dev, colle le token dans hermes setup
Slack
Listé dans le README et fourni comme extra pyproject dédié (slack). Installe comme app Slack workspace et laisse ton channel discuter avec Hermes.
settings Crée une app Slack, installe dans le workspace, ajoute le token via hermes setup
Signal
Listé dans le README comme plateforme de messagerie de premier plan. Connecte via un relais Signal pour que Hermes réponde aux DMs et groupes chiffrés.
settings Lie l'appareil pendant hermes gateway
iMessage
Pas listé officiellement dans le README ou la documentation Hermes. L'équipe Hermes positionne le support macOS comme CLI et toute gateway de chat connectée ; pour iMessage, les membres de la communauté passent généralement par un relais tiers.
settings Pont communautaire — pas de chemin officiel pour le moment
Microsoft Teams
Pas listé dans le README Hermes ni dans les extras pyproject. Aucune intégration Teams n'est documentée en amont.
settings Pas d'intégration officielle
Matrix
Fourni comme extra pyproject dédié (matrix). Installe avec uv pip install -e ".[matrix]" pour activer la gateway Matrix.
settings Installe l'extra [matrix] et configure le homeserver
WebChat
Pas explicitement documenté dans le README ou la documentation d'installation. Le CLI Hermes est le canal principal ; l'interface navigateur n'est pas l'interface primaire.
settings Pas d'interface web dédiée documentée
Fournisseurs de modèles
Hermes est agnostique en matière de modèle. Le README liste Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI et les endpoints personnalisés. Anthropic et Mistral sont des dépendances directes dans le pyproject.toml.
Tip: Tu hésites entre les modèles ? Nous Portal fait tourner les propres modèles Hermes de Nous Research et c'est le choix par défaut. OpenRouter route vers plus de 200 modèles avec une seule clé. Anthropic Claude et OpenAI GPT sont des dépendances directes. Lance un modèle local via n'importe quel endpoint compatible OpenAI (p. ex. Ollama) si tu veux zéro dépendance cloud.
Anthropic
Le SDK Python anthropic est une dépendance directe dans le pyproject.toml, Claude est donc nativement supporté comme fournisseur de modèle.
settings Récupère une clé API sur console.anthropic.com, ajoute via hermes model
OpenAI
Le SDK Python openai est une dépendance directe dans le pyproject.toml et est explicitement listé dans le README comme fournisseur supporté.
settings Récupère une clé API sur platform.openai.com, ajoute via hermes model
Pas listé comme fournisseur direct dans le README Hermes ni dans les dépendances pyproject. Les modèles Gemini restent accessibles via un proxy compatible OpenAI ou OpenRouter.
settings Passe par OpenRouter ou un proxy compatible
xAI
Pas listé comme fournisseur direct dans le README Hermes ni dans les dépendances pyproject. Grok est accessible via OpenRouter ou un endpoint compatible OpenAI.
settings Passe par OpenRouter ou un endpoint compatible
OpenRouter
Explicitement listé dans le README comme « OpenRouter (200+ modèles) » — une seule clé API donne accès à la plupart des fournisseurs de modèles.
settings Récupère une clé API sur openrouter.ai, ajoute via hermes model
Mistral
Fourni comme extra pyproject dédié (mistral). Installe avec uv pip install -e ".[mistral]" pour connecter le fournisseur Mistral.
settings Installe l'extra [mistral], ajoute la clé via hermes model
DeepSeek
Pas listé comme fournisseur direct dans le README Hermes ni dans les dépendances pyproject. DeepSeek propose un endpoint compatible OpenAI, donc il peut être ajouté comme endpoint personnalisé.
settings Configure comme endpoint personnalisé dans hermes model
Perplexity
Pas listé comme fournisseur direct. Perplexity est un produit de recherche plutôt qu'un fournisseur de modèle pur ; la recherche web dans Hermes passe par les dépendances exa-py et firecrawl-py.
settings Utilise les outils de recherche web intégrés
Hugging Face
Pas listé comme fournisseur direct. Les endpoints d'inférence Hugging Face qui parlent l'API OpenAI peuvent être ajoutés comme endpoints personnalisés.
settings Configure comme endpoint personnalisé dans hermes model
Local Models
Le README dit « ou votre propre endpoint » — Ollama expose une API compatible OpenAI, il se branche donc facilement comme endpoint local sans aucune dépendance cloud.
settings Installe Ollama, pointe hermes model vers http://localhost:11434
Backends de sandbox
Hermes supporte six backends de terminal sandbox d'après le README : local, Docker, SSH, Daytona, Singularity et Modal. Choisis-en un pour isoler l'exécution des commandes de ta machine hôte.
Cloudflare
Pas listé comme intégration officielle. L'équipe Hermes ne fournit pas de chemin de déploiement Cloudflare Workers dans le dépôt amont.
settings Pas de chemin Cloudflare officiel
Maison connectée
Hermes intègre un extra homeassistant optionnel (pyproject.toml). Contrôle lumières, thermostats, serrures, scènes et automatisations en langage naturel une fois ton instance Home Assistant connectée.
Home Assistant
Fourni comme extra pyproject dédié (homeassistant). Installe avec uv pip install -e ".[homeassistant]" pour contrôler lumières, thermostats, scènes et automatisations par chat.
settings Installe l'extra [homeassistant], ajoute le token HA
Philips Hue
Pas d'intégration dédiée — les lampes Philips Hue se contrôlent via l'extra homeassistant une fois le pont connecté à Home Assistant.
settings Expose Hue via Home Assistant
Outils développeur
Hermes expose ses outils via les standards ouverts MCP (Model Context Protocol) et ACP (Agent Connect Protocol), ce qui permet à n'importe quel éditeur ou outil compatible MCP de communiquer avec lui. Voir docs/user-guide/features/mcp.
GitHub
Pas d'intégration directe. Connecte un serveur MCP GitHub communautaire via l'extra [mcp] — la page docs/user-guide/features/mcp de Hermes explique comment.
settings Installe l'extra [mcp], attache un serveur MCP GitHub
VS Code
Pas d'intégration directe. Hermes expose ses outils via MCP, donc tout éditeur avec support client MCP peut l'utiliser. Vérifie le repo Hermes et agentskills.io pour les ponts communautaires.
settings Utilise une extension VS Code compatible MCP
Docker
Docker est l'un des six backends de sandbox listés dans le README (local, Docker, SSH, Daytona, Singularity, Modal). Utilise-le pour isoler l'exécution des commandes de ton hôte.
settings Configure le sandbox Hermes sur docker dans la config
Productivité
Mémoire persistante (via Honcho), skills procéduraux d'agentskills.io, planification cron et configuration de personnalité SOUL.md permettent à Hermes de se souvenir de tes projets, préférences et méthodes de travail.
Notion
Pas d'intégration directe. Hermes supporte les serveurs MCP — les serveurs MCP Notion communautaires sont donc le chemin recommandé.
settings Attache un serveur MCP Notion communautaire
Obsidian
Pas d'intégration directe. Pointe Hermes vers ton vault comme fichiers bruts et utilise un serveur MCP Obsidian communautaire si tu as besoin d'un accès graph-aware.
settings Attache un serveur MCP Obsidian communautaire
Trello
Pas d'intégration directe. Aucun extra Trello ni page de documentation n'existe en amont.
settings Pas d'intégration officielle
Musique & Audio
Pas officiellement documenté. Pour le contrôle musical, la communauté passe généralement par un serveur MCP custom ou un skill sur agentskills.io.
Spotify
Pas d'intégration directe. Aucun extra Spotify ni page de documentation n'existe en amont.
settings Pas d'intégration officielle
Systèmes d'exploitation
Hermes tourne sur Linux, macOS, WSL2 sous Windows et Android via Termux (README). Windows natif n'est explicitement pas supporté.
macOS
L'installeur supporte macOS directement — le script d'installation rapide détecte macOS et lance le flux standard basé sur uv. Le CLI est l'interface principale.
settings Lance le script curl d'installation
iOS
Aucune app iOS native n'est documentée en amont. Accède à Hermes depuis iOS en connectant une gateway de chat (Telegram, Signal, etc.) à un hôte permanent.
settings Connecte Hermes sur un autre hôte, discute depuis iOS
Android
Le README supporte explicitement Android via Termux. Le script d'installation détecte automatiquement Termux et utilise l'extra testé .[termux] au lieu de .[all].
settings Lance le script d'installation dans Termux
Linux
Support Linux de premier plan — le script d'installation est principalement testé sur les distributions Linux, utilisant uv pour gérer Python 3.11 et un venv sous ~/.hermes/hermes-agent/.
settings Lance le script curl d'installation
Besoin d'une intégration sur mesure ?
Hermes Agent expose ses outils via MCP et ACP. Construis ta propre intégration sous forme de skill ou de serveur MCP — le dépôt Nous Research est la source de référence.