Conecte Em Todo Lugar
O Hermes Agent funciona com seus apps de mensagens, provedores de modelo e protocolos de ferramentas favoritos. Mesma memória, mesmos skills, acessível de qualquer lugar onde você já conversa.
Plataformas de Mensagens
O Hermes funciona como gateway no Telegram, Discord, Slack, WhatsApp, Signal, Email e CLI (README). Comece uma conversa numa plataforma e continue em outra — a memória te acompanha.
O Hermes roda um gateway WhatsApp pronto pra usar — o instalador baixa o Node.js v22 especificamente para o bridge do WhatsApp funcionar. Listado no README junto com Telegram, Discord e Slack.
settings Execute hermes gateway após o script de instalação
Telegram
Listado no README como plataforma de mensagens de primeira classe. Conecte um token de bot via o assistente hermes setup ou hermes gateway.
settings Cole o token do bot do @BotFather durante o hermes setup
Discord
Listado no README como plataforma de mensagens de primeira classe. Rode o Hermes como bot no Discord — canais, threads e DMs funcionam.
settings Crie o bot em discord.dev, cole o token no hermes setup
Slack
Listado no README e vem como extra dedicado no pyproject (slack). Instale como app do workspace Slack e deixe seu canal conversar com o Hermes.
settings Crie o app Slack, instale no workspace, adicione o token via hermes setup
Signal
Listado no README como plataforma de mensagens de primeira classe. Conecte via relay Signal para o Hermes responder a DMs e grupos criptografados.
settings Vincule o dispositivo durante hermes gateway
iMessage
Não listado oficialmente no README ou docs do Hermes. A equipe posiciona o suporte macOS como CLI e qualquer gateway de chat conectado; para iMessage, membros da comunidade normalmente fazem bridge via relay de terceiros.
settings Bridge da comunidade — ainda sem caminho oficial
Microsoft Teams
Não listado no README ou extras do pyproject do Hermes. Nenhuma integração de primeira parte com o Teams está documentada upstream.
settings Sem integração oficial
Matrix
Vem como extra dedicado no pyproject (matrix). Instale com uv pip install -e ".[matrix]" para habilitar o gateway Matrix.
settings Instale o extra [matrix] e configure o homeserver
WebChat
Não documentado explicitamente no README ou docs de instalação. O CLI do Hermes é listado como canal de primeira classe; UI no navegador não é a interface principal.
settings Sem web UI dedicada documentada
Provedores de Modelo
O Hermes é agnóstico de modelo. O README lista Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI e endpoints customizados. Anthropic e Mistral são dependências diretas no pyproject.toml.
Tip: Não sabe qual modelo escolher? O Nous Portal roda os modelos Hermes da própria Nous Research e é o padrão da casa. O OpenRouter roteia por mais de 200 modelos com uma única chave. Anthropic Claude e OpenAI GPT são dependências diretas. Rode um modelo local via qualquer endpoint compatível com OpenAI (ex: Ollama) se quiser zero dependência de nuvem.
Anthropic
O SDK Python da Anthropic é dependência direta no pyproject.toml, então o Claude é suportado nativamente como provedor de modelo.
settings Pegue a API key em console.anthropic.com, adicione via hermes model
OpenAI
O SDK Python da OpenAI é dependência direta no pyproject.toml e está listado explicitamente no README como provedor suportado.
settings Pegue a API key em platform.openai.com, adicione via hermes model
Não listado como provedor de primeira parte no README ou dependências do pyproject. Modelos Gemini podem ser acessados via proxy compatível com OpenAI ou OpenRouter.
settings Roteie pelo OpenRouter ou proxy compatível
xAI
Não listado como provedor de primeira parte no README ou dependências do pyproject. O Grok pode ser acessado via OpenRouter ou endpoint customizado compatível com OpenAI.
settings Roteie pelo OpenRouter ou endpoint compatível
OpenRouter
Listado explicitamente no README como "OpenRouter (200+ models)" — uma única API key dá acesso à maioria dos provedores de modelo mainstream.
settings Pegue a API key em openrouter.ai, adicione via hermes model
Mistral
Vem como extra dedicado no pyproject (mistral). Instale com uv pip install -e ".[mistral]" para conectar o provedor Mistral.
settings Instale o extra [mistral], adicione a key via hermes model
DeepSeek
Não listado como provedor de primeira parte no README ou dependências do pyproject. O DeepSeek oferece endpoint compatível com OpenAI, então pode ser conectado como endpoint customizado.
settings Configure como endpoint customizado em hermes model
Perplexity
Não listado como provedor de primeira parte. Perplexity é um produto de busca, não um provedor de modelo puro; a busca web no Hermes usa as dependências exa-py e firecrawl-py.
settings Use as ferramentas de busca web nativas
Hugging Face
Não listado como provedor de primeira parte. Endpoints de inferência do Hugging Face que falam a API da OpenAI podem ser adicionados como endpoints customizados.
settings Configure como endpoint customizado em hermes model
Local Models
O README diz "or your own endpoint" — o Ollama expõe uma API compatível com OpenAI, então encaixa perfeitamente como endpoint local sem nenhuma dependência de nuvem.
settings Instale o Ollama, aponte hermes model para http://localhost:11434
Backends de Sandbox
O Hermes suporta seis backends de sandbox para terminal conforme o README: local, Docker, SSH, Daytona, Singularity e Modal. Escolha um para isolar a execução de comandos do seu sistema host.
Cloudflare
Não listado como integração oficial. A equipe do Hermes não disponibiliza caminho de deploy via Cloudflare Workers no repositório upstream.
settings Sem caminho oficial Cloudflare
Casa Inteligente
O Hermes traz um extra opcional homeassistant (pyproject.toml). Controle luzes, termostatos, fechaduras, cenas e automações por linguagem natural depois de conectar uma instância do Home Assistant.
Home Assistant
Vem como extra dedicado no pyproject (homeassistant). Instale com uv pip install -e ".[homeassistant]" para controlar luzes, termostatos, cenas e automações por chat.
settings Instale o extra [homeassistant], adicione o token do HA
Philips Hue
Não é integração dedicada — lâmpadas Philips Hue são controladas pelo extra homeassistant depois que o bridge é conectado ao Home Assistant.
settings Exponha o Hue pelo Home Assistant
Ferramentas de Desenvolvedor
O Hermes expõe suas ferramentas pelos padrões abertos MCP (Model Context Protocol) e ACP (Agent Connect Protocol), então qualquer editor ou ferramenta compatível com MCP pode se comunicar com ele. Veja docs/user-guide/features/mcp.
GitHub
Não é integração de primeira parte. Conecte um servidor GitHub MCP da comunidade pelo extra [mcp] — a página docs/user-guide/features/mcp do Hermes mostra como.
settings Instale o extra [mcp], anexe um servidor GitHub MCP
VS Code
Não é integração de primeira parte. O Hermes expõe suas ferramentas via MCP, então qualquer editor com suporte a cliente MCP pode controlá-lo. Confira o repo do Hermes e o agentskills.io para bridges da comunidade.
settings Use uma extensão do VS Code compatível com MCP
Docker
Docker é um dos seis backends de sandbox para terminal listados no README (local, Docker, SSH, Daytona, Singularity, Modal). Use para isolar a execução de comandos do seu host.
settings Configure o sandbox do Hermes como docker na config
Produtividade
Memória persistente (via Honcho), skills procedurais do agentskills.io, agendamento por cron e configuração de personalidade SOUL.md permitem que o Hermes lembre seus projetos, preferências e como você gosta de trabalhar.
Notion
Não é integração de primeira parte. O Hermes suporta servidores MCP — então servidores Notion MCP da comunidade são o caminho recomendado.
settings Anexe um servidor Notion MCP da comunidade
Obsidian
Não é integração de primeira parte. Aponte o Hermes para seu vault como arquivos simples e use um servidor Obsidian MCP da comunidade se precisar de acesso com reconhecimento de grafo.
settings Anexe um servidor Obsidian MCP da comunidade
Trello
Não é integração de primeira parte. Não existe extra ou página de docs para Trello no upstream.
settings Sem integração oficial
Música e Áudio
Não documentado oficialmente. Se precisar de controle de música, a comunidade geralmente conecta via um servidor MCP customizado ou um skill no agentskills.io.
Spotify
Não é integração de primeira parte. Não existe extra ou página de docs para Spotify no upstream.
settings Sem integração oficial
Sistemas Operacionais
O Hermes roda em Linux, macOS, WSL2 no Windows e Android via Termux (README). Windows nativo não é suportado.
macOS
O instalador suporta macOS diretamente — o script de instalação rápida detecta macOS e roda o fluxo padrão com uv. O CLI é a interface principal.
settings Execute o script curl de instalação
iOS
Não existe app iOS nativo documentado upstream. Acesse o Hermes pelo iOS conectando qualquer gateway de chat (Telegram, Signal, etc.) a um host sempre ligado.
settings Conecte o Hermes em outro host, converse pelo iOS
Android
O README suporta Android via Termux explicitamente. O script de instalação detecta o Termux automaticamente e usa o extra testado .[termux] em vez de .[all].
settings Execute o script de instalação dentro do Termux
Linux
Suporte de primeira classe ao Linux — o script de instalação é testado principalmente em distribuições Linux, usando uv para gerenciar Python 3.11 e um venv em ~/.hermes/hermes-agent/.
settings Execute o script curl de instalação
Precisa de Uma Integração Customizada?
O Hermes Agent expõe suas ferramentas via MCP e ACP. Construa sua própria integração como skill ou servidor MCP — o repo da Nous Research é a fonte da verdade.