Integrações

Conecte Em Todo Lugar

O Hermes Agent funciona com seus apps de mensagens, provedores de modelo e protocolos de ferramentas favoritos. Mesma memória, mesmos skills, acessível de qualquer lugar onde você já conversa.

chat_bubble

Plataformas de Mensagens

O Hermes funciona como gateway no Telegram, Discord, Slack, WhatsApp, Signal, Email e CLI (README). Comece uma conversa numa plataforma e continue em outra — a memória te acompanha.

Disponível

WhatsApp

O Hermes roda um gateway WhatsApp pronto pra usar — o instalador baixa o Node.js v22 especificamente para o bridge do WhatsApp funcionar. Listado no README junto com Telegram, Discord e Slack.

No READMEpareamento QRDMsGrupos

settings Execute hermes gateway após o script de instalação

Disponível

Telegram

Listado no README como plataforma de mensagens de primeira classe. Conecte um token de bot via o assistente hermes setup ou hermes gateway.

No READMEBot APIGruposMídia

settings Cole o token do bot do @BotFather durante o hermes setup

Disponível

Discord

Listado no README como plataforma de mensagens de primeira classe. Rode o Hermes como bot no Discord — canais, threads e DMs funcionam.

No READMECanaisThreadsDMs

settings Crie o bot em discord.dev, cole o token no hermes setup

Disponível

Slack

Listado no README e vem como extra dedicado no pyproject (slack). Instale como app do workspace Slack e deixe seu canal conversar com o Hermes.

No READMEextra pyprojectCanaisDMs

settings Crie o app Slack, instale no workspace, adicione o token via hermes setup

Disponível

Signal

Listado no README como plataforma de mensagens de primeira classe. Conecte via relay Signal para o Hermes responder a DMs e grupos criptografados.

No READMEcriptografia E2EDMsGrupos

settings Vincule o dispositivo durante hermes gateway

Em Breve

iMessage

Não listado oficialmente no README ou docs do Hermes. A equipe posiciona o suporte macOS como CLI e qualquer gateway de chat conectado; para iMessage, membros da comunidade normalmente fazem bridge via relay de terceiros.

Apenas comunidadenão no READMEbridge macOSExperimental

settings Bridge da comunidade — ainda sem caminho oficial

Em Breve

Microsoft Teams

Não listado no README ou extras do pyproject do Hermes. Nenhuma integração de primeira parte com o Teams está documentada upstream.

Não documentadopedido da comunidadesem extra oficial

settings Sem integração oficial

Disponível

Matrix

Vem como extra dedicado no pyproject (matrix). Instale com uv pip install -e ".[matrix]" para habilitar o gateway Matrix.

Extra pyprojectFederaçãoE2EDescentralizado

settings Instale o extra [matrix] e configure o homeserver

Em Breve

WebChat

Não documentado explicitamente no README ou docs de instalação. O CLI do Hermes é listado como canal de primeira classe; UI no navegador não é a interface principal.

Não documentadoCLI é principalveja docs para atualizações

settings Sem web UI dedicada documentada

psychology

Provedores de Modelo

O Hermes é agnóstico de modelo. O README lista Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI e endpoints customizados. Anthropic e Mistral são dependências diretas no pyproject.toml.

Tip: Não sabe qual modelo escolher? O Nous Portal roda os modelos Hermes da própria Nous Research e é o padrão da casa. O OpenRouter roteia por mais de 200 modelos com uma única chave. Anthropic Claude e OpenAI GPT são dependências diretas. Rode um modelo local via qualquer endpoint compatível com OpenAI (ex: Ollama) se quiser zero dependência de nuvem.

Disponível

Anthropic

O SDK Python da Anthropic é dependência direta no pyproject.toml, então o Claude é suportado nativamente como provedor de modelo.

Dependência pyprojectmodelos ClaudeTool useContexto longo

settings Pegue a API key em console.anthropic.com, adicione via hermes model

Disponível

OpenAI

O SDK Python da OpenAI é dependência direta no pyproject.toml e está listado explicitamente no README como provedor suportado.

No READMEdep pyprojectendpoints compatíveis com OpenAI

settings Pegue a API key em platform.openai.com, adicione via hermes model

Em Breve

Google

Não listado como provedor de primeira parte no README ou dependências do pyproject. Modelos Gemini podem ser acessados via proxy compatível com OpenAI ou OpenRouter.

Não diretovia OpenRouterproxies da comunidade

settings Roteie pelo OpenRouter ou proxy compatível

Em Breve

xAI

Não listado como provedor de primeira parte no README ou dependências do pyproject. O Grok pode ser acessado via OpenRouter ou endpoint customizado compatível com OpenAI.

Não diretovia OpenRouterendpoint customizado

settings Roteie pelo OpenRouter ou endpoint compatível

Disponível

OpenRouter

Listado explicitamente no README como "OpenRouter (200+ models)" — uma única API key dá acesso à maioria dos provedores de modelo mainstream.

No README200+ modelosuma API key

settings Pegue a API key em openrouter.ai, adicione via hermes model

Disponível

Mistral

Vem como extra dedicado no pyproject (mistral). Instale com uv pip install -e ".[mistral]" para conectar o provedor Mistral.

Extra pyprojectMistral LargeCodestral

settings Instale o extra [mistral], adicione a key via hermes model

Em Breve

DeepSeek

Não listado como provedor de primeira parte no README ou dependências do pyproject. O DeepSeek oferece endpoint compatível com OpenAI, então pode ser conectado como endpoint customizado.

Não diretoendpoint customizadocompatível com OpenAI

settings Configure como endpoint customizado em hermes model

Em Breve

Perplexity

Não listado como provedor de primeira parte. Perplexity é um produto de busca, não um provedor de modelo puro; a busca web no Hermes usa as dependências exa-py e firecrawl-py.

Não diretobusca via Exa/Firecrawl

settings Use as ferramentas de busca web nativas

Em Breve

Hugging Face

Não listado como provedor de primeira parte. Endpoints de inferência do Hugging Face que falam a API da OpenAI podem ser adicionados como endpoints customizados.

Não diretoendpoint customizadoInference API

settings Configure como endpoint customizado em hermes model

Disponível

Local Models

O README diz "or your own endpoint" — o Ollama expõe uma API compatível com OpenAI, então encaixa perfeitamente como endpoint local sem nenhuma dependência de nuvem.

Endpoint customizadomodelos locaisfunciona offline

settings Instale o Ollama, aponte hermes model para http://localhost:11434

cloud

Backends de Sandbox

O Hermes suporta seis backends de sandbox para terminal conforme o README: local, Docker, SSH, Daytona, Singularity e Modal. Escolha um para isolar a execução de comandos do seu sistema host.

Em Breve

Cloudflare

Não listado como integração oficial. A equipe do Hermes não disponibiliza caminho de deploy via Cloudflare Workers no repositório upstream.

Não documentadoapenas self-hostedveja docs

settings Sem caminho oficial Cloudflare

home

Casa Inteligente

O Hermes traz um extra opcional homeassistant (pyproject.toml). Controle luzes, termostatos, fechaduras, cenas e automações por linguagem natural depois de conectar uma instância do Home Assistant.

Disponível

Home Assistant

Vem como extra dedicado no pyproject (homeassistant). Instale com uv pip install -e ".[homeassistant]" para controlar luzes, termostatos, cenas e automações por chat.

Extra pyproject1000+ dispositivos HACenasAutomações

settings Instale o extra [homeassistant], adicione o token do HA

Em Breve

Philips Hue

Não é integração dedicada — lâmpadas Philips Hue são controladas pelo extra homeassistant depois que o bridge é conectado ao Home Assistant.

Via Home Assistantsem integração direta

settings Exponha o Hue pelo Home Assistant

code

Ferramentas de Desenvolvedor

O Hermes expõe suas ferramentas pelos padrões abertos MCP (Model Context Protocol) e ACP (Agent Connect Protocol), então qualquer editor ou ferramenta compatível com MCP pode se comunicar com ele. Veja docs/user-guide/features/mcp.

Em Breve

GitHub

Não é integração de primeira parte. Conecte um servidor GitHub MCP da comunidade pelo extra [mcp] — a página docs/user-guide/features/mcp do Hermes mostra como.

Via MCPservidor da comunidadenão direto

settings Instale o extra [mcp], anexe um servidor GitHub MCP

Em Breve

VS Code

Não é integração de primeira parte. O Hermes expõe suas ferramentas via MCP, então qualquer editor com suporte a cliente MCP pode controlá-lo. Confira o repo do Hermes e o agentskills.io para bridges da comunidade.

Via MCPbridges da comunidadenão direto

settings Use uma extensão do VS Code compatível com MCP

Disponível

Docker

Docker é um dos seis backends de sandbox para terminal listados no README (local, Docker, SSH, Daytona, Singularity, Modal). Use para isolar a execução de comandos do seu host.

Sandbox no READMEisolamento por containerseis backends no total

settings Configure o sandbox do Hermes como docker na config

task_alt

Produtividade

Memória persistente (via Honcho), skills procedurais do agentskills.io, agendamento por cron e configuração de personalidade SOUL.md permitem que o Hermes lembre seus projetos, preferências e como você gosta de trabalhar.

Em Breve

Notion

Não é integração de primeira parte. O Hermes suporta servidores MCP — então servidores Notion MCP da comunidade são o caminho recomendado.

Via MCPservidor da comunidadenão direto

settings Anexe um servidor Notion MCP da comunidade

Em Breve

Obsidian

Não é integração de primeira parte. Aponte o Hermes para seu vault como arquivos simples e use um servidor Obsidian MCP da comunidade se precisar de acesso com reconhecimento de grafo.

Via MCPacesso a arquivosservidor da comunidade

settings Anexe um servidor Obsidian MCP da comunidade

Em Breve

Trello

Não é integração de primeira parte. Não existe extra ou página de docs para Trello no upstream.

Não documentadopedido da comunidade

settings Sem integração oficial

music_note

Música e Áudio

Não documentado oficialmente. Se precisar de controle de música, a comunidade geralmente conecta via um servidor MCP customizado ou um skill no agentskills.io.

Em Breve

Spotify

Não é integração de primeira parte. Não existe extra ou página de docs para Spotify no upstream.

Não documentadopedido da comunidade

settings Sem integração oficial

devices

Sistemas Operacionais

O Hermes roda em Linux, macOS, WSL2 no Windows e Android via Termux (README). Windows nativo não é suportado.

Disponível

macOS

O instalador suporta macOS diretamente — o script de instalação rápida detecta macOS e roda o fluxo padrão com uv. O CLI é a interface principal.

Suporte no script de instalaçãoCLIPython 3.11

settings Execute o script curl de instalação

Em Breve

iOS

Não existe app iOS nativo documentado upstream. Acesse o Hermes pelo iOS conectando qualquer gateway de chat (Telegram, Signal, etc.) a um host sempre ligado.

Sem app nativovia gateway de chat

settings Conecte o Hermes em outro host, converse pelo iOS

Disponível

Android

O README suporta Android via Termux explicitamente. O script de instalação detecta o Termux automaticamente e usa o extra testado .[termux] em vez de .[all].

No READMEnativo Termuxextra .[termux]

settings Execute o script de instalação dentro do Termux

Disponível

Linux

Suporte de primeira classe ao Linux — o script de instalação é testado principalmente em distribuições Linux, usando uv para gerenciar Python 3.11 e um venv em ~/.hermes/hermes-agent/.

Suporte no script de instalaçãoPython 3.11gerenciado por uv

settings Execute o script curl de instalação

Precisa de Uma Integração Customizada?

O Hermes Agent expõe suas ferramentas via MCP e ACP. Construa sua própria integração como skill ou servidor MCP — o repo da Nous Research é a fonte da verdade.

Fique Por Dentro

Novidades da comunidade sobre releases do Hermes Agent, novos skills e integrações. Sem spam, cancele quando quiser.