Voice Satellite

RudiP

Well-known member
Hat jemand dieses Voice Satellite, zu finden in HACS, ans laufen bekommen ?
Installieren geht, aber machen kann man nix. Das Mikrofon Symbol erscheint auf dem Desktop, aber drauf klicken bringt rein gar nichts.
In den Einstellungen steht "Media Player nicht verfügbar", Assist nicht verfügbar". So eine Schritt für Schritt Anleitung habe ich auch nicht gefunden bzw. bei denen scheint das dann alles zu laufen.
 
Naja, ich hatte nicht daran gedacht, das man das Repository erst hinzufügen muß.
Aber meine Frage zielte ja auch auf "Hat das schon jemand am laufen", sprich, derjenige hätte es ja schon eingebunden. ;)
Aber wer es mal ausprobieren will, hier ist der Link.
 
Die Wake-Words-Beispiele aus Deinem Link....
... da wird man doch glatt zum Ironman... 🤣

Aber mal ernsthaft: Sind denn die genannten Vorbereitungen und Anforderungen auch alle erfüllt? Inbesondere sticht auch direkt ins Auge, dass der Browser (oder halt auch die HA-App, k.A. wie es bei Dir läuft) auch Zugriff auf das Mikro haben muss (ist teilweise auch am Rechner bei anderen Produkten ein Problemkind).
 
Aber mal ernsthaft: Sind denn die genannten Vorbereitungen und Anforderungen auch alle erfüllt?
Taucht die Frage auf "Welche Vorbereitungen" ?
Whisper läuft, Piper auch.
Inbesondere sticht auch direkt ins Auge, dass der Browser (oder halt auch die HA-App, k.A. wie es bei Dir läuft) auch Zugriff auf das Mikro haben muss (ist teilweise auch am Rechner bei anderen Produkten ein Problemkind).
Da Gemini im Chrome funktioniert, hat der auch Zugriff auf das Mic. Außerdem steht ja im Text " Sie werden bei der ersten Nutzung dazu aufgefordert." Nur kommt es ja nicht so weit. Es scheitert ja schon beim erstellen der Integration. In der Anleitung steht

Integration
Jeder Satellit ist ein reales assist_satelliteGerät in Home Assistant mit einer zugehörigen media_playerKonfigurationseinheit (Pipeline, Aktivierungswort, TTS-Ausgabe, Stummschaltung usw.) und Live-Status-Synchronisierung ( idle/ listening/ processing/ responding). Nach jeder Aktion löst die Integration ein voice_satellite_chatEreignis aus, das das Transkript des Nutzers, die vollständige Antwort des Assistenten und die vom LLM aufgerufenen Tools enthält und somit für Automatisierungen bereit ist.
Ich fürchte, es hapert schon daran, das mit kein MediaPlayer angezeigt wird. Ohne diesen scheint das ganze System nicht funktionieren zu wollen. Ich habe aber Alexa's, also definitiv auch MediaPlayer.
Er sagt ja auch, das ihm der Assist fehlt. Nur, woher soll das kommen ? Als Entität ist da "assist_satellite.hase" hinterlegt, aber ich habe keinen Schimmer, wie ich das einrichten soll. Und Sprachassistant von HA klappt es jedenfalls nicht.
Ähnliches beim MediaPlayer, da ist "media_player.hase_media_player" hinterlegt. Aber wo richte ich das ein ?
 
Da Gemini im Chrome funktioniert, hat der auch Zugriff auf das Mic.
Ah... nicht weil der Browser Zugriff auf das Mic hat, muss das auch funktionieren, die Seite selbst benötigt da auch entsprechenden Zugriff (kenne das halt nur von webbasierten TK-Anlagen). Normalerweise sollte da aber auch standardmässig nachgefragt werden (sofern die Website nicht sowieso schon Zugriff auf das Mikrofon hat). War auch nur so eine Idee :)

Aber wo richte ich das ein ?
Hast Du Dir mal die verschiedenen Docs dazu angeschaut: https://github.com/jxlarrea/voice-satellite-card-integration/blob/main/docs/README.md? Vielleicht helfen die ja weiter... ich hab davon aber so gar keine Ahnung, weswegen ich mich jetzt auch still und leise wieder verkrieche 😅
 

Letzte Anleitungen

Statistik des Forums

Themen
7.979
Beiträge
78.463
Mitglieder
8.672
Neuestes Mitglied
Gnaggi
Zurück
Oben