Integrazioni

Connettiti ovunque

Hermes Agent funziona con le tue app di messaggistica, provider di modelli e protocolli preferiti. Stessa memoria, stesse skill, raggiungibile da qualsiasi piattaforma dove chatti già.

chat_bubble

Piattaforme di messaggistica

Hermes può funzionare come gateway su Telegram, Discord, Slack, WhatsApp, Signal, Email e la CLI (README). Inizia una conversazione su una piattaforma e riprendila su un'altra — la memoria ti segue.

Disponibile

WhatsApp

Hermes include un gateway WhatsApp pronto all'uso — l'installer scarica Node.js v22 appositamente per far funzionare il bridge WhatsApp. Elencato nel README insieme a Telegram, Discord e Slack.

Nel READMEaccoppiamento QRDMGruppi

settings Esegui hermes gateway dopo lo script di installazione

Disponibile

Telegram

Elencato nel README come piattaforma di messaggistica di prima classe. Connetti un token bot tramite hermes setup o la procedura guidata hermes gateway.

Nel READMEBot APIGruppiMedia

settings Incolla il token bot da @BotFather durante hermes setup

Disponibile

Discord

Elencato nel README come piattaforma di messaggistica di prima classe. Esegui Hermes come bot Discord — canali, thread e DM funzionano tutti.

Nel READMECanaliThreadDM

settings Crea il bot su discord.dev, incolla il token in hermes setup

Disponibile

Slack

Elencato nel README e incluso come extra dedicato in pyproject (slack). Installa come app Slack del workspace e lascia che il canale parli con Hermes.

Nel READMEextra pyprojectCanaliDM

settings Crea l'app Slack, installa nel workspace, aggiungi il token via hermes setup

Disponibile

Signal

Elencato nel README come piattaforma di messaggistica di prima classe. Connetti tramite un relay Signal così Hermes può rispondere a DM e gruppi crittografati.

Nel READMEcrittografia E2EDMGruppi

settings Collega il dispositivo durante hermes gateway

In arrivo

iMessage

Non elencato ufficialmente nel README o nella documentazione di Hermes. Il team posiziona il supporto macOS come CLI e qualsiasi gateway di chat connesso; per iMessage, la community usa tipicamente un bridge di terze parti.

Solo communitynon nel READMEbridge macOSSperimentale

settings Bridge della community — nessun percorso ufficiale

In arrivo

Microsoft Teams

Non elencato nel README o negli extra pyproject di Hermes. Nessuna integrazione Teams di prima parte è documentata upstream.

Non documentatoRichiesta communityNessun extra ufficiale

settings Nessuna integrazione ufficiale

Disponibile

Matrix

Incluso come extra dedicato in pyproject (matrix). Installa con uv pip install -e ".[matrix]" per abilitare il gateway Matrix.

Extra pyprojectFederazioneE2EDecentralizzato

settings Installa l'extra [matrix] e configura l'homeserver

In arrivo

WebChat

Non documentato esplicitamente nel README o nei documenti di installazione. La CLI di Hermes è elencata come canale principale; l'interfaccia browser non è l'interfaccia primaria.

Non documentatola CLI è primariaConsulta la docs

settings Nessuna web UI dedicata documentata

psychology

Provider di modelli

Hermes è agnostico rispetto al modello. Il README elenca Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI e endpoint personalizzati. Anthropic e Mistral sono inclusi come dipendenze dirette in pyproject.toml.

Tip: Non sai quale modello scegliere? Nous Portal esegue i modelli Hermes di Nous Research ed è il default. OpenRouter instrada verso oltre 200 modelli con una sola chiave. Anthropic Claude e OpenAI GPT sono inclusi come dipendenze dirette. Esegui un modello locale via qualsiasi endpoint compatibile OpenAI (es. Ollama) se vuoi zero dipendenze cloud.

Disponibile

Anthropic

L'SDK Python anthropic è una dipendenza diretta in pyproject.toml, quindi Claude è supportato nativamente come provider di modelli.

Dipendenza pyprojectmodelli ClaudeUso toolContesto lungo

settings Ottieni la chiave API su console.anthropic.com, aggiungila via hermes model

Disponibile

OpenAI

L'SDK Python openai è una dipendenza diretta in pyproject.toml ed è esplicitamente elencato nel README come provider supportato.

Nel READMEdipendenza pyprojectendpoint compatibili OpenAI

settings Ottieni la chiave API su platform.openai.com, aggiungila via hermes model

In arrivo

Google

Non indicato come provider di prima parte nel README o nelle dipendenze pyproject di Hermes. I modelli Gemini sono comunque raggiungibili tramite un proxy compatibile OpenAI o OpenRouter.

Non direttovia OpenRouterProxy community

settings Instrada tramite OpenRouter o un proxy compatibile

In arrivo

xAI

Non indicato come provider di prima parte nel README o nelle dipendenze pyproject di Hermes. Grok è raggiungibile tramite OpenRouter o un endpoint personalizzato compatibile OpenAI.

Non direttovia OpenRouterEndpoint personalizzato

settings Instrada tramite OpenRouter o un endpoint compatibile

Disponibile

OpenRouter

Esplicitamente elencato nel README come "OpenRouter (200+ modelli)" — una singola chiave API ti dà accesso alla maggior parte dei provider di modelli mainstream.

Nel README200+ modelliSingola chiave API

settings Ottieni la chiave API su openrouter.ai, aggiungila via hermes model

Disponibile

Mistral

Incluso come extra dedicato in pyproject (mistral). Installa con uv pip install -e ".[mistral]" per attivare il provider Mistral.

Extra pyprojectMistral LargeCodestral

settings Installa l'extra [mistral], aggiungi la chiave via hermes model

In arrivo

DeepSeek

Non indicato come provider di prima parte nel README o nelle dipendenze pyproject di Hermes. DeepSeek offre un endpoint compatibile OpenAI, quindi può essere collegato come endpoint personalizzato.

Non direttoEndpoint personalizzatoCompatibile OpenAI

settings Configura come endpoint personalizzato in hermes model

In arrivo

Perplexity

Non elencato come provider di prima parte. Perplexity è un prodotto di ricerca più che un puro provider di modelli; la ricerca web in Hermes è gestita dalle dipendenze exa-py e firecrawl-py.

Non direttoRicerca via Exa/Firecrawl

settings Usa i tool di ricerca web integrati

In arrivo

Hugging Face

Non indicato come provider di prima parte. Gli inference endpoint di Hugging Face che espongono l'API OpenAI possono essere aggiunti come endpoint personalizzati.

Non direttoEndpoint personalizzatoInference API

settings Configura come endpoint personalizzato in hermes model

Disponibile

Local Models

Il README dice "o il tuo endpoint" — Ollama espone un'API compatibile OpenAI, quindi si collega facilmente come endpoint locale senza dipendenze cloud.

Endpoint personalizzatoModelli localiFunziona offline

settings Installa Ollama, punta hermes model a http://localhost:11434

cloud

Backend sandbox

Hermes supporta sei backend sandbox terminale secondo il README: local, Docker, SSH, Daytona, Singularity e Modal. Scegline uno per isolare l'esecuzione dei comandi dal sistema host.

In arrivo

Cloudflare

Non elencato come integrazione ufficiale. Il team di Hermes non fornisce un percorso di deploy su Cloudflare Workers nel repo upstream.

Non documentatoSolo self-hostedConsulta la docs

settings Nessun percorso Cloudflare ufficiale

home

Smart Home

Hermes include un extra opzionale homeassistant (pyproject.toml). Controlla luci, termostati, serrature, scene e automazioni in linguaggio naturale una volta connesso a un'istanza Home Assistant.

Disponibile

Home Assistant

Incluso come extra dedicato in pyproject (homeassistant). Installa con uv pip install -e ".[homeassistant]" per controllare luci, termostati, scene e automazioni via chat.

Extra pyproject1000+ dispositivi HASceneAutomazioni

settings Installa l'extra [homeassistant], aggiungi il token HA

In arrivo

Philips Hue

Non è un'integrazione dedicata — le luci Philips Hue sono controllate tramite l'extra homeassistant una volta connesso il bridge a Home Assistant.

Via Home AssistantNessuna integrazione diretta

settings Esponi Hue tramite Home Assistant

code

Strumenti per sviluppatori

Hermes espone i suoi tool attraverso gli standard aperti MCP (Model Context Protocol) e ACP (Agent Connect Protocol), così qualsiasi editor o strumento compatibile con MCP può comunicare con esso. Vedi docs/user-guide/features/mcp.

In arrivo

GitHub

Non è un'integrazione di prima parte. Connetti un server MCP GitHub della community tramite l'extra [mcp] — la pagina docs/user-guide/features/mcp di Hermes spiega come fare.

Via MCPServer communityNon diretto

settings Installa l'extra [mcp], collega un server MCP GitHub

In arrivo

VS Code

Non è un'integrazione di prima parte. Hermes espone i suoi tool tramite MCP, quindi qualsiasi editor con supporto client MCP può interfacciarsi. Consulta il repo Hermes e agentskills.io per i bridge della community.

Via MCPBridge communityNon diretto

settings Usa un'estensione VS Code compatibile MCP

Disponibile

Docker

Docker è uno dei sei backend sandbox terminale elencati nel README (local, Docker, SSH, Daytona, Singularity, Modal). Usalo per isolare l'esecuzione dei comandi dal tuo host.

Sandbox nel READMEIsolamento containerSei backend totali

settings Imposta il sandbox di Hermes su docker nella configurazione

task_alt

Produttività

Memoria persistente (via Honcho), skill procedurali da agentskills.io, scheduling cron e configurazione personalità SOUL.md permettono a Hermes di ricordare i tuoi progetti, le tue preferenze e il tuo modo di lavorare.

In arrivo

Notion

Non è un'integrazione di prima parte. Hermes supporta server MCP — quindi i server MCP Notion della community sono il percorso consigliato.

Via MCPServer communityNon diretto

settings Collega un server MCP Notion della community

In arrivo

Obsidian

Non è un'integrazione di prima parte. Punta Hermes al tuo vault come file semplici e usa un server MCP Obsidian della community se hai bisogno di accesso graph-aware.

Via MCPAccesso fileServer community

settings Collega un server MCP Obsidian della community

In arrivo

Trello

Non è un'integrazione di prima parte. Nessun extra o pagina docs per Trello esiste upstream.

Non documentatoRichiesta community

settings Nessuna integrazione ufficiale

music_note

Musica e audio

Non documentato ufficialmente. Per il controllo musicale, la community in genere lo collega tramite un server MCP personalizzato o una skill su agentskills.io.

In arrivo

Spotify

Non è un'integrazione di prima parte. Nessun extra o pagina docs per Spotify esiste upstream.

Non documentatoRichiesta community

settings Nessuna integrazione ufficiale

devices

Sistemi operativi

Hermes gira su Linux, macOS, WSL2 su Windows e Android via Termux (README). Windows nativo non è esplicitamente supportato.

Disponibile

macOS

L'installer supporta macOS direttamente — lo script di installazione rapida rileva macOS ed esegue il flusso standard basato su uv. La CLI è l'interfaccia principale.

Script di installazione supportatoCLIPython 3.11

settings Esegui lo script curl di installazione

In arrivo

iOS

Nessuna app iOS nativa è documentata upstream. Raggiungi Hermes da iOS connettendo qualsiasi gateway di chat (Telegram, Signal, ecc.) a un host sempre attivo.

Nessuna app nativaVia gateway di chat

settings Connetti Hermes su un altro host, chatta da iOS

Disponibile

Android

Il README supporta esplicitamente Android via Termux. Lo script di installazione rileva automaticamente Termux e usa l'extra testato .[termux] al posto di .[all].

Nel READMETermux nativoextra .[termux]

settings Esegui lo script di installazione dentro Termux

Disponibile

Linux

Supporto Linux di prima classe — lo script di installazione è testato principalmente su distribuzioni Linux, usando uv per gestire Python 3.11 e un venv in ~/.hermes/hermes-agent/.

Script di installazione supportatoPython 3.11Gestito da uv

settings Esegui lo script curl di installazione

Serve un'integrazione personalizzata?

Hermes Agent espone i suoi tool tramite MCP e ACP. Crea la tua integrazione come skill o server MCP — il repo di Nous Research è la fonte ufficiale.

Resta aggiornato

Aggiornamenti dalla community sulle release di Hermes Agent, nuove skill e integrazioni. Niente spam, cancellati quando vuoi.