Intégrations

Connecté partout

Hermes Agent fonctionne avec tes apps de messagerie, fournisseurs de modèles et protocoles d'outils préférés. Même mémoire, mêmes skills, accessible depuis n'importe où.

chat_bubble

Messageries

Hermes fonctionne en gateway sur Telegram, Discord, Slack, WhatsApp, Signal, Email et le CLI (README). Commence une conversation sur une plateforme et reprends-la sur une autre — la mémoire te suit.

Disponible

WhatsApp

Hermes fait tourner une gateway WhatsApp nativement — l'installeur récupère Node.js v22 spécifiquement pour que le pont WhatsApp fonctionne. Listé dans le README à côté de Telegram, Discord et Slack.

Listé dans le READMEappairage QRDMsGroupes

settings Lance hermes gateway après le script d'installation

Disponible

Telegram

Listé dans le README comme plateforme de messagerie de premier plan. Connecte un token de bot via hermes setup ou l'assistant hermes gateway.

Listé dans le READMEBot APIGroupesMédias

settings Colle le token bot de @BotFather pendant hermes setup

Disponible

Discord

Listé dans le README comme plateforme de messagerie de premier plan. Lance Hermes comme bot Discord — channels, threads et DMs fonctionnent tous.

Listé dans le READMEChannelsThreadsDMs

settings Crée un bot sur discord.dev, colle le token dans hermes setup

Disponible

Slack

Listé dans le README et fourni comme extra pyproject dédié (slack). Installe comme app Slack workspace et laisse ton channel discuter avec Hermes.

Listé dans le READMEextra pyprojectChannelsDMs

settings Crée une app Slack, installe dans le workspace, ajoute le token via hermes setup

Disponible

Signal

Listé dans le README comme plateforme de messagerie de premier plan. Connecte via un relais Signal pour que Hermes réponde aux DMs et groupes chiffrés.

Listé dans le READMEchiffrement E2EDMsGroupes

settings Lie l'appareil pendant hermes gateway

Bientôt

iMessage

Pas listé officiellement dans le README ou la documentation Hermes. L'équipe Hermes positionne le support macOS comme CLI et toute gateway de chat connectée ; pour iMessage, les membres de la communauté passent généralement par un relais tiers.

Communauté uniquementPas dans le READMEpont macOSExpérimental

settings Pont communautaire — pas de chemin officiel pour le moment

Bientôt

Microsoft Teams

Pas listé dans le README Hermes ni dans les extras pyproject. Aucune intégration Teams n'est documentée en amont.

Non documentéDemande communautairePas d'extra officiel

settings Pas d'intégration officielle

Disponible

Matrix

Fourni comme extra pyproject dédié (matrix). Installe avec uv pip install -e ".[matrix]" pour activer la gateway Matrix.

Extra pyprojectFédérationE2EDécentralisé

settings Installe l'extra [matrix] et configure le homeserver

Bientôt

WebChat

Pas explicitement documenté dans le README ou la documentation d'installation. Le CLI Hermes est le canal principal ; l'interface navigateur n'est pas l'interface primaire.

Non documentéCLI prioritaireVoir la doc pour les mises à jour

settings Pas d'interface web dédiée documentée

psychology

Fournisseurs de modèles

Hermes est agnostique en matière de modèle. Le README liste Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI et les endpoints personnalisés. Anthropic et Mistral sont des dépendances directes dans le pyproject.toml.

Tip: Tu hésites entre les modèles ? Nous Portal fait tourner les propres modèles Hermes de Nous Research et c'est le choix par défaut. OpenRouter route vers plus de 200 modèles avec une seule clé. Anthropic Claude et OpenAI GPT sont des dépendances directes. Lance un modèle local via n'importe quel endpoint compatible OpenAI (p. ex. Ollama) si tu veux zéro dépendance cloud.

Disponible

Anthropic

Le SDK Python anthropic est une dépendance directe dans le pyproject.toml, Claude est donc nativement supporté comme fournisseur de modèle.

Dépendance pyprojectmodèles ClaudeTool useLong contexte

settings Récupère une clé API sur console.anthropic.com, ajoute via hermes model

Disponible

OpenAI

Le SDK Python openai est une dépendance directe dans le pyproject.toml et est explicitement listé dans le README comme fournisseur supporté.

Listé dans le READMEdépendance pyprojectendpoints compatibles OpenAI

settings Récupère une clé API sur platform.openai.com, ajoute via hermes model

Bientôt

Google

Pas listé comme fournisseur direct dans le README Hermes ni dans les dépendances pyproject. Les modèles Gemini restent accessibles via un proxy compatible OpenAI ou OpenRouter.

Pas directVia OpenRouterProxys communautaires

settings Passe par OpenRouter ou un proxy compatible

Bientôt

xAI

Pas listé comme fournisseur direct dans le README Hermes ni dans les dépendances pyproject. Grok est accessible via OpenRouter ou un endpoint compatible OpenAI.

Pas directVia OpenRouterEndpoint personnalisé

settings Passe par OpenRouter ou un endpoint compatible

Disponible

OpenRouter

Explicitement listé dans le README comme « OpenRouter (200+ modèles) » — une seule clé API donne accès à la plupart des fournisseurs de modèles.

Listé dans le README200+ modèlesClé API unique

settings Récupère une clé API sur openrouter.ai, ajoute via hermes model

Disponible

Mistral

Fourni comme extra pyproject dédié (mistral). Installe avec uv pip install -e ".[mistral]" pour connecter le fournisseur Mistral.

Extra pyprojectMistral LargeCodestral

settings Installe l'extra [mistral], ajoute la clé via hermes model

Bientôt

DeepSeek

Pas listé comme fournisseur direct dans le README Hermes ni dans les dépendances pyproject. DeepSeek propose un endpoint compatible OpenAI, donc il peut être ajouté comme endpoint personnalisé.

Pas directEndpoint personnaliséCompatible OpenAI

settings Configure comme endpoint personnalisé dans hermes model

Bientôt

Perplexity

Pas listé comme fournisseur direct. Perplexity est un produit de recherche plutôt qu'un fournisseur de modèle pur ; la recherche web dans Hermes passe par les dépendances exa-py et firecrawl-py.

Pas directRecherche via Exa/Firecrawl

settings Utilise les outils de recherche web intégrés

Bientôt

Hugging Face

Pas listé comme fournisseur direct. Les endpoints d'inférence Hugging Face qui parlent l'API OpenAI peuvent être ajoutés comme endpoints personnalisés.

Pas directEndpoint personnaliséInference API

settings Configure comme endpoint personnalisé dans hermes model

Disponible

Local Models

Le README dit « ou votre propre endpoint » — Ollama expose une API compatible OpenAI, il se branche donc facilement comme endpoint local sans aucune dépendance cloud.

Endpoint personnaliséModèles locauxFonctionne hors ligne

settings Installe Ollama, pointe hermes model vers http://localhost:11434

cloud

Backends de sandbox

Hermes supporte six backends de terminal sandbox d'après le README : local, Docker, SSH, Daytona, Singularity et Modal. Choisis-en un pour isoler l'exécution des commandes de ta machine hôte.

Bientôt

Cloudflare

Pas listé comme intégration officielle. L'équipe Hermes ne fournit pas de chemin de déploiement Cloudflare Workers dans le dépôt amont.

Non documentéAuto-hébergé uniquementVoir la doc

settings Pas de chemin Cloudflare officiel

home

Maison connectée

Hermes intègre un extra homeassistant optionnel (pyproject.toml). Contrôle lumières, thermostats, serrures, scènes et automatisations en langage naturel une fois ton instance Home Assistant connectée.

Disponible

Home Assistant

Fourni comme extra pyproject dédié (homeassistant). Installe avec uv pip install -e ".[homeassistant]" pour contrôler lumières, thermostats, scènes et automatisations par chat.

Extra pyproject1000+ appareils HAScènesAutomatisations

settings Installe l'extra [homeassistant], ajoute le token HA

Bientôt

Philips Hue

Pas d'intégration dédiée — les lampes Philips Hue se contrôlent via l'extra homeassistant une fois le pont connecté à Home Assistant.

Via Home AssistantPas d'intégration directe

settings Expose Hue via Home Assistant

code

Outils développeur

Hermes expose ses outils via les standards ouverts MCP (Model Context Protocol) et ACP (Agent Connect Protocol), ce qui permet à n'importe quel éditeur ou outil compatible MCP de communiquer avec lui. Voir docs/user-guide/features/mcp.

Bientôt

GitHub

Pas d'intégration directe. Connecte un serveur MCP GitHub communautaire via l'extra [mcp] — la page docs/user-guide/features/mcp de Hermes explique comment.

Via MCPServeur communautairePas direct

settings Installe l'extra [mcp], attache un serveur MCP GitHub

Bientôt

VS Code

Pas d'intégration directe. Hermes expose ses outils via MCP, donc tout éditeur avec support client MCP peut l'utiliser. Vérifie le repo Hermes et agentskills.io pour les ponts communautaires.

Via MCPPonts communautairesPas direct

settings Utilise une extension VS Code compatible MCP

Disponible

Docker

Docker est l'un des six backends de sandbox listés dans le README (local, Docker, SSH, Daytona, Singularity, Modal). Utilise-le pour isoler l'exécution des commandes de ton hôte.

Sandbox listé dans le READMEIsolation conteneurSix backends au total

settings Configure le sandbox Hermes sur docker dans la config

task_alt

Productivité

Mémoire persistante (via Honcho), skills procéduraux d'agentskills.io, planification cron et configuration de personnalité SOUL.md permettent à Hermes de se souvenir de tes projets, préférences et méthodes de travail.

Bientôt

Notion

Pas d'intégration directe. Hermes supporte les serveurs MCP — les serveurs MCP Notion communautaires sont donc le chemin recommandé.

Via MCPServeur communautairePas direct

settings Attache un serveur MCP Notion communautaire

Bientôt

Obsidian

Pas d'intégration directe. Pointe Hermes vers ton vault comme fichiers bruts et utilise un serveur MCP Obsidian communautaire si tu as besoin d'un accès graph-aware.

Via MCPAccès fichiersServeur communautaire

settings Attache un serveur MCP Obsidian communautaire

Bientôt

Trello

Pas d'intégration directe. Aucun extra Trello ni page de documentation n'existe en amont.

Non documentéDemande communautaire

settings Pas d'intégration officielle

music_note

Musique & Audio

Pas officiellement documenté. Pour le contrôle musical, la communauté passe généralement par un serveur MCP custom ou un skill sur agentskills.io.

Bientôt

Spotify

Pas d'intégration directe. Aucun extra Spotify ni page de documentation n'existe en amont.

Non documentéDemande communautaire

settings Pas d'intégration officielle

devices

Systèmes d'exploitation

Hermes tourne sur Linux, macOS, WSL2 sous Windows et Android via Termux (README). Windows natif n'est explicitement pas supporté.

Disponible

macOS

L'installeur supporte macOS directement — le script d'installation rapide détecte macOS et lance le flux standard basé sur uv. Le CLI est l'interface principale.

Supporté par le script d'installationCLIPython 3.11

settings Lance le script curl d'installation

Bientôt

iOS

Aucune app iOS native n'est documentée en amont. Accède à Hermes depuis iOS en connectant une gateway de chat (Telegram, Signal, etc.) à un hôte permanent.

Pas d'app nativeVia gateway de chat

settings Connecte Hermes sur un autre hôte, discute depuis iOS

Disponible

Android

Le README supporte explicitement Android via Termux. Le script d'installation détecte automatiquement Termux et utilise l'extra testé .[termux] au lieu de .[all].

Listé dans le READMETermux natifextra .[termux]

settings Lance le script d'installation dans Termux

Disponible

Linux

Support Linux de premier plan — le script d'installation est principalement testé sur les distributions Linux, utilisant uv pour gérer Python 3.11 et un venv sous ~/.hermes/hermes-agent/.

Supporté par le script d'installationPython 3.11géré par uv

settings Lance le script curl d'installation

Besoin d'une intégration sur mesure ?

Hermes Agent expose ses outils via MCP et ACP. Construis ta propre intégration sous forme de skill ou de serveur MCP — le dépôt Nous Research est la source de référence.

Reste informé

Actualités communautaires sur les releases, les nouveaux skills et les intégrations de Hermes Agent. Pas de spam, désinscription à tout moment.