Connettiti ovunque
Hermes Agent funziona con le tue app di messaggistica, provider di modelli e protocolli preferiti. Stessa memoria, stesse skill, raggiungibile da qualsiasi piattaforma dove chatti già.
Piattaforme di messaggistica
Hermes può funzionare come gateway su Telegram, Discord, Slack, WhatsApp, Signal, Email e la CLI (README). Inizia una conversazione su una piattaforma e riprendila su un'altra — la memoria ti segue.
Hermes include un gateway WhatsApp pronto all'uso — l'installer scarica Node.js v22 appositamente per far funzionare il bridge WhatsApp. Elencato nel README insieme a Telegram, Discord e Slack.
settings Esegui hermes gateway dopo lo script di installazione
Telegram
Elencato nel README come piattaforma di messaggistica di prima classe. Connetti un token bot tramite hermes setup o la procedura guidata hermes gateway.
settings Incolla il token bot da @BotFather durante hermes setup
Discord
Elencato nel README come piattaforma di messaggistica di prima classe. Esegui Hermes come bot Discord — canali, thread e DM funzionano tutti.
settings Crea il bot su discord.dev, incolla il token in hermes setup
Slack
Elencato nel README e incluso come extra dedicato in pyproject (slack). Installa come app Slack del workspace e lascia che il canale parli con Hermes.
settings Crea l'app Slack, installa nel workspace, aggiungi il token via hermes setup
Signal
Elencato nel README come piattaforma di messaggistica di prima classe. Connetti tramite un relay Signal così Hermes può rispondere a DM e gruppi crittografati.
settings Collega il dispositivo durante hermes gateway
iMessage
Non elencato ufficialmente nel README o nella documentazione di Hermes. Il team posiziona il supporto macOS come CLI e qualsiasi gateway di chat connesso; per iMessage, la community usa tipicamente un bridge di terze parti.
settings Bridge della community — nessun percorso ufficiale
Microsoft Teams
Non elencato nel README o negli extra pyproject di Hermes. Nessuna integrazione Teams di prima parte è documentata upstream.
settings Nessuna integrazione ufficiale
Matrix
Incluso come extra dedicato in pyproject (matrix). Installa con uv pip install -e ".[matrix]" per abilitare il gateway Matrix.
settings Installa l'extra [matrix] e configura l'homeserver
WebChat
Non documentato esplicitamente nel README o nei documenti di installazione. La CLI di Hermes è elencata come canale principale; l'interfaccia browser non è l'interfaccia primaria.
settings Nessuna web UI dedicata documentata
Provider di modelli
Hermes è agnostico rispetto al modello. Il README elenca Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI e endpoint personalizzati. Anthropic e Mistral sono inclusi come dipendenze dirette in pyproject.toml.
Tip: Non sai quale modello scegliere? Nous Portal esegue i modelli Hermes di Nous Research ed è il default. OpenRouter instrada verso oltre 200 modelli con una sola chiave. Anthropic Claude e OpenAI GPT sono inclusi come dipendenze dirette. Esegui un modello locale via qualsiasi endpoint compatibile OpenAI (es. Ollama) se vuoi zero dipendenze cloud.
Anthropic
L'SDK Python anthropic è una dipendenza diretta in pyproject.toml, quindi Claude è supportato nativamente come provider di modelli.
settings Ottieni la chiave API su console.anthropic.com, aggiungila via hermes model
OpenAI
L'SDK Python openai è una dipendenza diretta in pyproject.toml ed è esplicitamente elencato nel README come provider supportato.
settings Ottieni la chiave API su platform.openai.com, aggiungila via hermes model
Non indicato come provider di prima parte nel README o nelle dipendenze pyproject di Hermes. I modelli Gemini sono comunque raggiungibili tramite un proxy compatibile OpenAI o OpenRouter.
settings Instrada tramite OpenRouter o un proxy compatibile
xAI
Non indicato come provider di prima parte nel README o nelle dipendenze pyproject di Hermes. Grok è raggiungibile tramite OpenRouter o un endpoint personalizzato compatibile OpenAI.
settings Instrada tramite OpenRouter o un endpoint compatibile
OpenRouter
Esplicitamente elencato nel README come "OpenRouter (200+ modelli)" — una singola chiave API ti dà accesso alla maggior parte dei provider di modelli mainstream.
settings Ottieni la chiave API su openrouter.ai, aggiungila via hermes model
Mistral
Incluso come extra dedicato in pyproject (mistral). Installa con uv pip install -e ".[mistral]" per attivare il provider Mistral.
settings Installa l'extra [mistral], aggiungi la chiave via hermes model
DeepSeek
Non indicato come provider di prima parte nel README o nelle dipendenze pyproject di Hermes. DeepSeek offre un endpoint compatibile OpenAI, quindi può essere collegato come endpoint personalizzato.
settings Configura come endpoint personalizzato in hermes model
Perplexity
Non elencato come provider di prima parte. Perplexity è un prodotto di ricerca più che un puro provider di modelli; la ricerca web in Hermes è gestita dalle dipendenze exa-py e firecrawl-py.
settings Usa i tool di ricerca web integrati
Hugging Face
Non indicato come provider di prima parte. Gli inference endpoint di Hugging Face che espongono l'API OpenAI possono essere aggiunti come endpoint personalizzati.
settings Configura come endpoint personalizzato in hermes model
Local Models
Il README dice "o il tuo endpoint" — Ollama espone un'API compatibile OpenAI, quindi si collega facilmente come endpoint locale senza dipendenze cloud.
settings Installa Ollama, punta hermes model a http://localhost:11434
Backend sandbox
Hermes supporta sei backend sandbox terminale secondo il README: local, Docker, SSH, Daytona, Singularity e Modal. Scegline uno per isolare l'esecuzione dei comandi dal sistema host.
Cloudflare
Non elencato come integrazione ufficiale. Il team di Hermes non fornisce un percorso di deploy su Cloudflare Workers nel repo upstream.
settings Nessun percorso Cloudflare ufficiale
Smart Home
Hermes include un extra opzionale homeassistant (pyproject.toml). Controlla luci, termostati, serrature, scene e automazioni in linguaggio naturale una volta connesso a un'istanza Home Assistant.
Home Assistant
Incluso come extra dedicato in pyproject (homeassistant). Installa con uv pip install -e ".[homeassistant]" per controllare luci, termostati, scene e automazioni via chat.
settings Installa l'extra [homeassistant], aggiungi il token HA
Philips Hue
Non è un'integrazione dedicata — le luci Philips Hue sono controllate tramite l'extra homeassistant una volta connesso il bridge a Home Assistant.
settings Esponi Hue tramite Home Assistant
Strumenti per sviluppatori
Hermes espone i suoi tool attraverso gli standard aperti MCP (Model Context Protocol) e ACP (Agent Connect Protocol), così qualsiasi editor o strumento compatibile con MCP può comunicare con esso. Vedi docs/user-guide/features/mcp.
GitHub
Non è un'integrazione di prima parte. Connetti un server MCP GitHub della community tramite l'extra [mcp] — la pagina docs/user-guide/features/mcp di Hermes spiega come fare.
settings Installa l'extra [mcp], collega un server MCP GitHub
VS Code
Non è un'integrazione di prima parte. Hermes espone i suoi tool tramite MCP, quindi qualsiasi editor con supporto client MCP può interfacciarsi. Consulta il repo Hermes e agentskills.io per i bridge della community.
settings Usa un'estensione VS Code compatibile MCP
Docker
Docker è uno dei sei backend sandbox terminale elencati nel README (local, Docker, SSH, Daytona, Singularity, Modal). Usalo per isolare l'esecuzione dei comandi dal tuo host.
settings Imposta il sandbox di Hermes su docker nella configurazione
Produttività
Memoria persistente (via Honcho), skill procedurali da agentskills.io, scheduling cron e configurazione personalità SOUL.md permettono a Hermes di ricordare i tuoi progetti, le tue preferenze e il tuo modo di lavorare.
Notion
Non è un'integrazione di prima parte. Hermes supporta server MCP — quindi i server MCP Notion della community sono il percorso consigliato.
settings Collega un server MCP Notion della community
Obsidian
Non è un'integrazione di prima parte. Punta Hermes al tuo vault come file semplici e usa un server MCP Obsidian della community se hai bisogno di accesso graph-aware.
settings Collega un server MCP Obsidian della community
Trello
Non è un'integrazione di prima parte. Nessun extra o pagina docs per Trello esiste upstream.
settings Nessuna integrazione ufficiale
Musica e audio
Non documentato ufficialmente. Per il controllo musicale, la community in genere lo collega tramite un server MCP personalizzato o una skill su agentskills.io.
Spotify
Non è un'integrazione di prima parte. Nessun extra o pagina docs per Spotify esiste upstream.
settings Nessuna integrazione ufficiale
Sistemi operativi
Hermes gira su Linux, macOS, WSL2 su Windows e Android via Termux (README). Windows nativo non è esplicitamente supportato.
macOS
L'installer supporta macOS direttamente — lo script di installazione rapida rileva macOS ed esegue il flusso standard basato su uv. La CLI è l'interfaccia principale.
settings Esegui lo script curl di installazione
iOS
Nessuna app iOS nativa è documentata upstream. Raggiungi Hermes da iOS connettendo qualsiasi gateway di chat (Telegram, Signal, ecc.) a un host sempre attivo.
settings Connetti Hermes su un altro host, chatta da iOS
Android
Il README supporta esplicitamente Android via Termux. Lo script di installazione rileva automaticamente Termux e usa l'extra testato .[termux] al posto di .[all].
settings Esegui lo script di installazione dentro Termux
Linux
Supporto Linux di prima classe — lo script di installazione è testato principalmente su distribuzioni Linux, usando uv per gestire Python 3.11 e un venv in ~/.hermes/hermes-agent/.
settings Esegui lo script curl di installazione
Serve un'integrazione personalizzata?
Hermes Agent espone i suoi tool tramite MCP e ACP. Crea la tua integrazione come skill o server MCP — il repo di Nous Research è la fonte ufficiale.