Ciao! Dopo un lungo percorso di test e configurazione, ho finalmente un assistente vocale locale funzionante sul mio Raspberry Pi con Home Assistant OS, usando l’Anker PowerConf come speakerphone USB. Wake word “Hey raspy”, voce italiana “Riccardo low” e trascrizione Whisper locale (lenta ma gratuita). Ecco il mio viaggio, strumenti usati, problemi risolti e risorse.
Strumenti utilizzati
- Hardware: Anker PowerConf (speaker + microfono USB), Raspberry Pi (HA OS 2026.2.1).
- Software:
- Assist Microphone (add-on principale per input/output audio).
- openWakeWord (wake word “Hey raspy”).
- Wyoming Faster Whisper (STT locale).
- Piper TTS (“Riccardo low”).
Config Assist Microphone finale:
textsound_enabled: true
noise_suppression: 5
auto_gain: 3
mic_volume_multiplier: 3
sound_volume_multiplier: 1
debug_logging: true
Passi della configurazione
- PowerConf USB: Riconosciuto come
alsa_input.usb-Anker_PowerConf.mono-fallback/alsa_output.usb-Anker_PowerConf.analog-stereo(ha audio info). - Add-on installati:
- openWakeWord.
- Faster Whisper.
- Piper TTS.
- Assist Microphone (input/output PowerConf).
- Pipeline (
Impostazioni → Assistenti vocali):- Wake word: openWakeWord → “Hey raspy”.
- STT: Faster Whisper.
- TTS: Piper → “Riccardo low”.
- Test: “Hey raspy, che ora è?” → wake word, trascrizione, TTS dal PowerConf.
Difficoltà e soluzioni
- PowerConf riconosciuto ma ALSA vuoto (
arecord -lvuoto):sudo alsa force-reload+ restart PipeWire. Confermato conpactl list sources short. - openWakeWord instabile (1/20): YAML config: text
threshold: 0.2 trigger_level: 1 debug_logging: true - Errore “assistente non connette a HA”: Impostazione corretta URL di Home assistant in Configurazione → Rete
- Whisper lento (10-20s): Funziona locale; opzione futura Whisper Cloud.
Risorse utili
Funziona per comandi base, wake word migliorato ma non perfetto. Whisper locale gratuito ma lento.
L’ agente di conversazione e’ stato realizzato con Extended OpenAI Conversation, una estensione disponibile su HACS che permette di usare LLM di altre provider diversi da OpenAI. La scelta e’ stata per un proxy OpenWebUI che a sua volta rimanda a Groq.
Penso passero a Whisper cloud in quanto le limitate risorse del raspberry permettono di far girare solo un modello piccolo (tiny e small.int8) che non solo e’ lento ma anche impreciso, specie con la lingua italiana per la quale non e’ disponibile un modello specifico ma si deve usare il modello internazionale.
Lascia un commento