Integracje

Łącz się wszędzie

Hermes Agent współpracuje z Twoimi ulubionymi komunikatorami, dostawcami modeli i protokołami narzędzi. Ta sama pamięć, te same umiejętności, dostępne zewsząd, gdzie i tak już rozmawiasz.

chat_bubble

Platformy komunikacyjne

Hermes może działać jako brama na Telegramie, Discordzie, Slacku, WhatsAppie, Signalu, e-mailu i CLI (README). Zacznij rozmowę na jednej platformie i kontynuuj na innej — pamięć podąża za Tobą.

Dostępne

WhatsApp

Hermes obsługuje bramę WhatsApp od razu po instalacji — instalator pobiera Node.js v22 specjalnie dla mostu WhatsApp. Wymieniony w README obok Telegrama, Discorda i Slacka.

W READMEparowanie QRDM-yGrupy

settings Uruchom hermes gateway po skrypcie instalacyjnym

Dostępne

Telegram

Wymieniony w README jako platforma komunikacyjna pierwszej klasy. Podłącz token bota przez kreator hermes setup lub hermes gateway.

W READMEBot APIGrupyMedia

settings Wklej token bota z @BotFather podczas hermes setup

Dostępne

Discord

Wymieniony w README jako platforma komunikacyjna pierwszej klasy. Uruchom Hermesa jako bota Discord — kanały, wątki i DM-y działają.

W READMEKanałyWątkiDM-y

settings Stwórz bota na discord.dev, wklej token do hermes setup

Dostępne

Slack

Wymieniony w README i dostarczany jako dedykowany extra w pyproject (slack). Zainstaluj jako aplikację workspace'u Slack i pozwól kanałowi rozmawiać z Hermesem.

W READMEextra pyprojectKanałyDM-y

settings Stwórz aplikację Slack, zainstaluj w workspace, dodaj token przez hermes setup

Dostępne

Signal

Wymieniony w README jako platforma komunikacyjna pierwszej klasy. Podłącz przez relay Signal, aby Hermes mógł odpowiadać na szyfrowane DM-y i grupy.

W READMEszyfrowanie E2EDM-yGrupy

settings Połącz urządzenie podczas hermes gateway

Wkrótce

iMessage

Niewymieniony oficjalnie w README ani dokumentacji Hermes. Społeczność zazwyczaj łączy się z iMessage przez zewnętrzny relay.

Tylko społecznośćNie w READMEmost macOSEksperymentalny

settings Most społeczności — brak oficjalnej ścieżki

Wkrótce

Microsoft Teams

Niewymieniony w README ani w extras pyproject. Brak oficjalnie udokumentowanej integracji z Teams.

NieudokumentowaneProśba społecznościBrak oficjalnego extra

settings Brak oficjalnej integracji

Dostępne

Matrix

Dostarczany jako dedykowany extra pyproject (matrix). Zainstaluj z uv pip install -e ".[matrix]" aby włączyć bramę Matrix.

Extra pyprojectFederacjaE2EZdecentralizowany

settings Zainstaluj extra [matrix] i skonfiguruj homeserver

Wkrótce

WebChat

Nieudokumentowane w README ani w dokumentacji instalacji. CLI Hermesa jest wymienione jako kanał pierwszej klasy; interfejs w przeglądarce nie jest głównym interfejsem.

NieudokumentowaneCLI jest główneSprawdź dokumentację

settings Brak dedykowanego interfejsu webowego

psychology

Dostawcy modeli

Hermes jest agnostyczny wobec modelu. README wymienia Nous Portal, OpenRouter, z.ai/GLM, Kimi/Moonshot, MiniMax, OpenAI i niestandardowe endpointy. Anthropic i Mistral są dostarczane jako bezpośrednie zależności w pyproject.toml.

Tip: Nie wiesz, który model wybrać? Nous Portal uruchamia własne modele Hermes od Nous Research i jest domyślnym wyborem. OpenRouter kieruje do 200+ modeli z jednego klucza. Anthropic Claude i OpenAI GPT są dostarczane jako bezpośrednie zależności. Uruchom lokalny model przez dowolny endpoint kompatybilny z OpenAI (np. Ollama), jeśli potrzebujesz zera zależności chmurowych.

Dostępne

Anthropic

SDK anthropic dla Pythona jest bezpośrednią zależnością w pyproject.toml, więc Claude jest natywnie obsługiwany jako dostawca modeli.

Zależność pyprojectmodele ClaudeNarzędziaDługi kontekst

settings Pobierz klucz API z console.anthropic.com, dodaj przez hermes model

Dostępne

OpenAI

SDK openai dla Pythona jest bezpośrednią zależnością w pyproject.toml i jest wymienione w README jako obsługiwany dostawca.

W READMEzależność pyprojectEndpointy kompatybilne z OpenAI

settings Pobierz klucz API z platform.openai.com, dodaj przez hermes model

Wkrótce

Google

Niewymieniony jako bezpośredni dostawca w README ani zależnościach pyproject. Modele Gemini można osiągnąć przez proxy kompatybilne z OpenAI lub OpenRouter.

Nie bezpośrednioPrzez OpenRouterProxy społeczności

settings Kieruj przez OpenRouter lub kompatybilne proxy

Wkrótce

xAI

Niewymieniony jako bezpośredni dostawca w README ani zależnościach pyproject. Grok jest dostępny przez OpenRouter lub niestandardowy endpoint kompatybilny z OpenAI.

Nie bezpośrednioPrzez OpenRouterNiestandardowy endpoint

settings Kieruj przez OpenRouter lub kompatybilny endpoint

Dostępne

OpenRouter

Wymieniony w README jako "OpenRouter (200+ modeli)" — jeden klucz API daje dostęp do większości głównych dostawców modeli.

W README200+ modeliJeden klucz API

settings Pobierz klucz API z openrouter.ai, dodaj przez hermes model

Dostępne

Mistral

Dostarczany jako dedykowany extra pyproject (mistral). Zainstaluj z uv pip install -e ".[mistral]" aby podłączyć dostawcę Mistral.

Extra pyprojectMistral LargeCodestral

settings Zainstaluj extra [mistral], dodaj klucz przez hermes model

Wkrótce

DeepSeek

Niewymieniony jako bezpośredni dostawca. DeepSeek oferuje endpoint kompatybilny z OpenAI, więc można go podłączyć jako niestandardowy endpoint.

Nie bezpośrednioNiestandardowy endpointKompatybilny z OpenAI

settings Skonfiguruj jako niestandardowy endpoint w hermes model

Wkrótce

Perplexity

Niewymieniony jako bezpośredni dostawca. Perplexity to produkt wyszukiwania, a nie dostawca modeli; wyszukiwanie w Hermesie obsługują zależności exa-py i firecrawl-py.

Nie bezpośrednioWyszukiwanie przez Exa/Firecrawl

settings Użyj wbudowanych narzędzi wyszukiwania

Wkrótce

Hugging Face

Niewymieniony jako bezpośredni dostawca. Endpointy Hugging Face inference, które używają API OpenAI, można dodać jako niestandardowe endpointy.

Nie bezpośrednioNiestandardowy endpointInference API

settings Skonfiguruj jako niestandardowy endpoint w hermes model

Dostępne

Local Models

README mówi "lub własny endpoint" — Ollama udostępnia API kompatybilne z OpenAI, więc łatwo podłączy się jako lokalny endpoint bez żadnych zależności chmurowych.

Niestandardowy endpointLokalne modelePraca offline

settings Zainstaluj Ollamę, skieruj hermes model na http://localhost:11434

cloud

Backendy sandbox

Hermes obsługuje sześć backendów sandbox zgodnie z README: lokalny, Docker, SSH, Daytona, Singularity i Modal. Wybierz jeden, aby odizolować wykonywanie komend od systemu hosta.

Wkrótce

Cloudflare

Niewymieniony jako oficjalna integracja. Zespół Hermes nie dostarcza ścieżki wdrożenia na Cloudflare Workers.

NieudokumentowaneTylko self-hostedSprawdź dokumentację

settings Brak oficjalnej ścieżki Cloudflare

home

Smart Home

Hermes ma opcjonalny extra homeassistant (pyproject.toml). Steruj światłami, termostatami, zamkami, scenami i automatyzacjami za pomocą naturalnego języka po podłączeniu instancji Home Assistant.

Dostępne

Home Assistant

Dostarczany jako dedykowany extra pyproject (homeassistant). Zainstaluj z uv pip install -e ".[homeassistant]" aby sterować światłami, termostatami, scenami i automatyzacjami przez czat.

Extra pyproject1000+ urządzeń HAScenyAutomatyzacje

settings Zainstaluj extra [homeassistant], dodaj token HA

Wkrótce

Philips Hue

Brak dedykowanej integracji — oświetlenie Philips Hue jest sterowane przez extra homeassistant po podłączeniu mostka do Home Assistant.

Przez Home AssistantBrak bezpośredniej integracji

settings Udostępnij Hue przez Home Assistant

code

Narzędzia deweloperskie

Hermes udostępnia swoje narzędzia przez otwarte standardy MCP (Model Context Protocol) i ACP (Agent Connect Protocol), więc każdy edytor lub narzędzie kompatybilne z MCP może z nim rozmawiać. Zobacz docs/user-guide/features/mcp.

Wkrótce

GitHub

Brak bezpośredniej integracji. Podłącz społecznościowy serwer GitHub MCP przez extra [mcp] — strona docs/user-guide/features/mcp pokazuje jak.

Przez MCPSerwer społecznościNie bezpośrednio

settings Zainstaluj extra [mcp], podłącz serwer GitHub MCP

Wkrótce

VS Code

Brak bezpośredniej integracji. Hermes udostępnia narzędzia przez MCP, więc każdy edytor z klientem MCP może nim sterować. Sprawdź repozytorium Hermes i agentskills.io.

Przez MCPMosty społecznościNie bezpośrednio

settings Użyj rozszerzenia VS Code kompatybilnego z MCP

Dostępne

Docker

Docker to jeden z sześciu backendów sandbox terminala wymienionych w README (lokalny, Docker, SSH, Daytona, Singularity, Modal). Użyj go, aby odizolować wykonywanie komend od hosta.

Sandbox z READMEIzolacja kontenerowaSześć backendów łącznie

settings Ustaw sandbox Hermesa na docker w konfiguracji

task_alt

Produktywność

Trwała pamięć (przez Honcho), proceduralne umiejętności z agentskills.io, planowanie cron i konfiguracja osobowości SOUL.md pozwalają Hermesowi zapamiętać Twoje projekty, preferencje i styl pracy.

Wkrótce

Notion

Brak bezpośredniej integracji. Hermes obsługuje serwery MCP — dlatego społecznościowe serwery Notion MCP to zalecana ścieżka.

Przez MCPSerwer społecznościNie bezpośrednio

settings Podłącz społecznościowy serwer Notion MCP

Wkrótce

Obsidian

Brak bezpośredniej integracji. Skieruj Hermesa na swój vault jako zwykłe pliki i użyj społecznościowego serwera Obsidian MCP, jeśli potrzebujesz dostępu do grafu.

Przez MCPDostęp do plikówSerwer społeczności

settings Podłącz społecznościowy serwer Obsidian MCP

Wkrótce

Trello

Brak bezpośredniej integracji. Brak oficjalnego extra Trello ani strony dokumentacji.

NieudokumentowaneProśba społeczności

settings Brak oficjalnej integracji

music_note

Muzyka i audio

Nieudokumentowane oficjalnie. Jeśli potrzebujesz sterowania muzyką, społeczność zazwyczaj podłącza to przez niestandardowy serwer MCP lub umiejętność na agentskills.io.

Wkrótce

Spotify

Brak bezpośredniej integracji. Brak oficjalnego extra Spotify ani strony dokumentacji.

NieudokumentowaneProśba społeczności

settings Brak oficjalnej integracji

devices

Systemy operacyjne

Hermes działa na Linuxie, macOS-ie, WSL2 na Windowsie i Androidzie przez Termux (README). Natywny Windows nie jest obsługiwany.

Dostępne

macOS

Instalator obsługuje macOS bezpośrednio — skrypt szybkiej instalacji wykrywa macOS i uruchamia standardowy proces oparty na uv. CLI jest głównym interfejsem.

Obsługiwany przez skrypt instalacjiCLIPython 3.11

settings Uruchom skrypt instalacyjny curl

Wkrótce

iOS

Brak natywnej aplikacji iOS w oficjalnej dokumentacji. Dostęp do Hermesa z iOS przez podłączenie dowolnej bramy czatowej (Telegram, Signal itp.) do hosta działającego 24/7.

Brak natywnej aplikacjiPrzez bramę czatową

settings Podłącz Hermesa na innym hoście, rozmawiaj z iOS

Dostępne

Android

README wyraźnie obsługuje Android przez Termux. Skrypt instalacyjny automatycznie wykrywa Termux i używa przetestowanego extra .[termux] zamiast .[all].

W READMENatywny TermuxExtra .[termux]

settings Uruchom skrypt instalacyjny w Termuxie

Dostępne

Linux

Pełne wsparcie Linuxa — skrypt instalacyjny jest głównie testowany na dystrybucjach Linuxa, używając uv do zarządzania Pythonem 3.11 i venv w ~/.hermes/hermes-agent/.

Obsługiwany przez skrypt instalacjiPython 3.11Zarządzany przez uv

settings Uruchom skrypt instalacyjny curl

Potrzebujesz niestandardowej integracji?

Hermes Agent udostępnia narzędzia przez MCP i ACP. Zbuduj własną integrację jako umiejętność lub serwer MCP — repozytorium Nous Research jest źródłem prawdy.

Bądź na bieżąco

Aktualności społeczności o wydaniach Hermes Agent, nowych umiejętnościach i integracjach. Bez spamu, wypisz się kiedy chcesz.