Ich wollte schon lange wissen, wie sich „AI“ anfühlt, wenn sie nicht als App im Handy wohnt, sondern als echtes Gerät: Einschalten, Knopf drücken, sprechen – und eine Stimme antwortet. Genau das habe ich mit dem Whisplay-AI-Chatbot umgesetzt: ein kleiner, tragbarer Sprach-Chatbot, der sich eher wie ein futuristisches Walkie-Talkie anfühlt als wie ein weiterer Bildschirm.
Das Grundprinzip ist herrlich direkt: Push-to-Talk drücken, Frage stellen, loslassen – und der Chatbot antwortet über den Lautsprecher. Kein Tippen, kein „Hey irgendwas“, kein Menü. Diese Einfachheit ist für mich der eigentliche Zauber: Es ist nicht „noch ein Chatfenster“, sondern eine kleine Interaktionsform, die man wirklich benutzt.
Ich habe den Chatbot auf einer sehr kompakten Kombi aufgebaut:
Was ich daran liebe: Das Whisplay-HAT nimmt dir genau die Teile ab, die sonst jedes Bastelprojekt ausbremsen (Audio, Mic, Display, Button). Du steckst es auf, installierst den Treiber – fertig.
Unter der Haube läuft das Projekt als Service auf dem Pi. Die Logik ist so aufgebaut, dass sich das Ganze gut erweitern lässt
(z. B. eigene Tools/Skripte, die die KI auslösen darf). Praktisch fand ich auch, dass man vieles über eine .env-Konfiguration steuert
und das System auf Wunsch beim Boot automatisch startet – ideal, wenn man das Gerät „wie ein Gadget“ nutzen will und nicht wie einen Bastelrechner.
Ein paar Features, die ich im Alltag sofort gemerkt habe:
Das Projekt kann klassisch mit Cloud-APIs laufen (z. B. OpenAI/Gemini u. a.) – super für schnelle, starke Antworten auf kleiner Hardware. Richtig spannend wurde es für mich aber, als ich die Offline-Variante aufgebaut habe: Auf einem Raspberry Pi 5 (8 GB+) läuft der Chatbot vollständig lokal – mit Whisper für Speech-to-Text, Ollama für das lokale LLM und Piper für Text-to-Speech. Damit kann das Gerät ohne Internet „reden“, was nicht nur nerdig-cool ist, sondern auch ein ganz anderes Privacy-Gefühl gibt.
(Und ja: Auf dem Zero 2 W kann man zwar auch mit lokalen Modellen experimentieren, aber man merkt schnell die Grenzen – genau deshalb ist Pi 5 für „wirklich offline“ die entspanntere Wahl.)
Ich habe es am Ende so eingerichtet, dass ich wirklich nur noch einschalte und losrede. Hilfreich dabei:
Ein Feature, das bei mir sofort den „Wow“-Effekt ausgelöst hat: Bildgenerierung. Wenn man einen Image-Generation-Server in der Config aktiviert, kann man Prompts schicken und bekommt das Ergebnis direkt auf dem kleinen Display angezeigt; gespeichert wird es zusätzlich im Projektordner. Das ist natürlich Spielerei – aber genau die gute Sorte Spielerei, die zeigt, wie „multimodal“ so ein Mini-Gerät werden kann.
Weil es drei Welten zusammenbringt, die sonst selten so sauber ineinandergreifen:
Unterm Strich ist das für mich ein Projekt, das nicht nur „funktioniert“, sondern ein kleines Stück Zukunft in die Hand legt.