Gosund WB4 LED WiFi Birne

  • Also Komfort bedeutet auch immer etwas weniger Privatsphäre, weil wie soll ein KI wissen was wir wollen, wenn sie uns nicht kennt?

    Ist aber ein anderes Thema und nicht uninteressant.

    Das ist so ausgedrückt nicht wirklich korrekt. Da muss schon etwas genauer hinsehen:

    1. Gibt s bis heute kein System, dass wirklich das "I" - also Intelligenz - einlöst. Alle Systeme basieren auf Mustererkennung und Regelableitung aus möglichst vielen Trainingsdaten

    2. Man kann Trainingsdaten anonymisieren und von den ursprünglichen Sprechern und Zusammenhängen trennen

    3. Die Ergebnisse des Trainings lassen sich in Datenmodelle fassen, die selbst von einem RaspberryPi (> 3) in akzeptabler Zeit weiterverabeitet werden können

    4. Es gab (leider!) gut funktionierende Systeme wie z. B. SNIPS. Leider von Sonos aufgekauft und nicht mehr öffentlich und frei zugänglich. Dies funktionierte so wie beschrieben: Man konnte anonym seine Sprachdaten und Interpretationsmuster auf einer Web-KI trainieren und das Trainingsergebnis herunterladen und mit ein paar Python-Kenntnissen zur Steuerung z. B. von Tasmota-Geräten oder zum Abrufen von Wetterberichten oder zur Steuerung von Internet-Raio-Software usw. einsetzen.

    5. Läuft bei mir trotz "Abschaltens" der KI im Web am 31.01.2020 immer noch störungsfrei, ohne dass ich meine Privatsphäre freigeben musste, ohne mitzuteilen, welche Urlaubspläne ich vielleicht habe und wann (Alexa, wie sind die Temperaturen auf Island im Juni?), wann ich ins Bett gehe (Hey Google, dimme die Nachttischlampe) und was dort passiert (Hallo Siri, spiele Kuschelrock 12) usw.

    6. Es ist gut, wenn es Alternativen zur kommerziellen Spracherkennung gibt und diese gefördert würden durch diverse "Digitale Initiativen".

    Offline-Voice-Control-Möglichkeit die "rhasspy" lautet.

    Offline-Voice-Control-Möglichkeit die "rhasspy" lautet.

    Danke für den Hinweis, hatte ich schon mal gesehen, aber wieder vergessen. Hat nun ein Lesezeichnen bekommen. Ebenfalls interessant: Das Common-Voice-Projekt von Mozilla. Das unterstütze ich durch Trainigsdaten - das kann jeder machen. Wenn ich schon mal vielleicht auf eine Web basierende Spracherkennung zurückgreifen sollte, dann wären diese Leute die Kandidaten meines Vertrauens in nicht-kommerzielle Nutzung meiner Daten.

  • Da hast Du recht was die Steuerung angeht, aber Fragen nach z.B dem Wetter oder Verkehr, was für mich den Komfort ausmacht geht so nicht, weil wi kommen die Daten her wenn alles lokal bleibt?

    Wie geschrieben, es ist ein sehr interessantes Thema und teils auch Interpretation was der eine oder andere darunter versteht.

    Mein Beispiel zur Panik wegen der Privatsphäre hab ich ja mit FB schon gebracht. Der eine fühlt sich immer und über all beobachtet, dem anderen ist es egal wenn jeder weiß wie er morgens auf der Toilette aussieht.

  • Mich stört bei den Echo Geräten halt , dass deren Mikrofon so derart sensibel ist, dass sie sogar flüstern verstehen und darauf reagieren. Ich hab aktuell nur den einen Dot und der reicht für das gesamte Haus.

    Facebook etc nutze ich nicht. Wäre mir halt lieber, wenn es einen Service gäbe, der offline ist. Würde ihn nur für Lampen etc nutzen.

  • Das gibts und soll wohl auch gut laufen. Hab mich da aber noch nicht groß drum gekümmert. Snipes wurde ja oben schon angesprochen, wobei das wohl nicht mehr geht.

    Musst mal Google fragen "offline Sprachsteuerung".

  • Fragen nach z.B dem Wetter oder Verkehr, was für mich den Komfort ausmacht geht so nicht, weil wi kommen die Daten her wenn alles lokal bleibt?

    Das geht so:

    Die trainierte Spracherkennung sendet nach entsprechender Aufforderung einen HTTP-Request mit Ort und Zeitraum z. B. an openweather.org und als Antwort kommt ein JSON-String, den man auswerten kann. Bei SNIPS ging das so:

    Worte wie "Wetterbericht", oder "Wettervorhersage" oder "Wetter aus" wurden trainiert.

    Eine recht umfangreiche Liste deutscher Städtenamen konnte ich importieren, weil sie von der KI bereit gestellt wurden. Das Training war nicht mehr erforderlich. Jetzt war nur noch die Unterscheidung zwischen aktuellem Wetter und zukünftigem Wetter zu treffen. Das führt hier an dieser Stelle zu weit zu erläutern. Jedenfalls wird aus den Triggerworten "Wetterbericht" und "Städtename" in einer Auswertungsfunktion der HTTP-Abfragestring geschrieben, mit einer HTTP-Request-Funktion an openweather.org geschickt. Diese Webseite liefert als Antwort einen JSON-String. Daraus ziehe ich mit einem JSON-Parser (Auswertungsfunktion) die Bestandteile raus, die ich brauche und lasse Sie von SNIPS ansagen. Vielleicht sprachmelodisch nicht so ausgefeilt wie bei Amazon und Co aber ganz OK.

    Und so setze ich Komponenten ein, die alle nichts voneinander wissen also (lokales) SNIPS, einen (lokalen) MQTT-Broker, ein eigenes (lokales) Python-Skript, Openweather.org und damit kann ich mir dann durchaus Daten aus dem Internet holen, ohne dass der Absender weiß, was ich damit anfangen will. Das ist aber qualitativ schon was anderes, also ob ich meine ganze Frage bei Amazon, Google etc. hinterlege und allen Daten von dort an mich geschickt werden und eben überhaupt nicht anonym sondern mit Adresse, evt. Telefonnummer und Kreditkartenangaben.

    Ich will ja auch niemanden bekehren. Ich mache nur hie und da auf die Alternativen aufmerksam. Und ja: Das macht alles viel mehr Arbeit (und Spaß)!

    Mich stört bei den Echo Geräten halt , dass deren Mikrofon so derart sensibel ist, dass sie sogar flüstern verstehen und darauf reagieren. Ich hab aktuell nur den einen Dot und der reicht für das gesamte Haus.

    Leute, mal ehrlich: Ist das nicht gruselig?!

  • Das ist nicht gruselig sondern Sinn der Sache. Ich will Alexa ja auch nicht ständig anbrüllen.

    Deine Aufführung ist echt nicht schlecht, gibt guten Einblick in die Technik. Problem, Wetter war nur ein Beispiel und so wie sich das anhört, muss dass dann für jede eventuelle Frage nach Verkehr, Zugverbindung usw gemacht werden und das ist dann zwar super anonym, aber alles andere als komfortabel, genau das was ich schon geschrieben habe. Komfort geht zu Lasten der Anonymität.

    Eins interessiert mich dann doch noch, was dient dabei als Mikrofon?

  • Eins interessiert mich dann doch noch, was dient dabei als Mikrofon?

    Ich setze ein 4-Mic-Array von Respeaker ein. Das steckt man auf einen Raspberry einfach auf. Das tolle beim SNIPS-System ist, dass ich mit diversen Raspis aus verschiedenen Räumen als SNIPS-Satelliten mit einem SNIPS-Server kommuniziere. Das führt dann zum Beispiel dazu, dass ein Satz wie: Mach hier das Licht an korrekt ausgewertet wird, weil SNIPS-Server weiß, von welchem Gerät der Satz kommt. Das ist schon cool.

    muss dass dann für jede eventuelle Frage nach Verkehr, Zugverbindung usw gemacht werden

    Ja, das ist das, was Arbeit macht. Aber ich schau mal, was mit Rhasspy so geht. Werde dann berichten...

  • Das macht Alexa aber auch. Wenn ich Licht aus sage, dann wird das Licht in dem Raum ausgeschaltet zu dem Alex zugewiesen ist. Alles ausschalten wäre Lichter aus.

    Jetzt kann ich mir die lokale Sprachsteuerung schon recht gut vorstellen, wobei mir das dann doch zuviel Aufwand wäre. Aber das muss jeder wohl selber entscheiden.

    Vieles wird auch künstlich hoch geschaukelt oder einfach falsch konfiguriert. Auf der Amazon Seite kann man schon ne ganze Menge abschalten, was die Speicherug betrifft. Viele machen nicht mal das.

    Wie schon geschrieben, es gibt auf beiden Seiten Extreme. Die Silberhut Träger und die FB Allesposter.

  • Hi,

    Tasmota kann man ja problemlos mit dem Browser schalten.

    http://192.168.x.x/cm?cmnd=power%20on z.B schaltet Tasmota ein.

    Ich möchte in einem solchen String die Werte für die Farbänderung einer RGBW Lampe mitgeben. Die Konsole zeigt mir:

    {"POWER":"ON","Dimmer":100,"Color":"000000FF00","HSBColor":"0,0,0","White":100,"CT":153,"Channel":[0,0,0,100,0]}

    Diesen würde ich nun gerne mit dem htpp Befehl senden, kennt hier einer die Syntax dafür ?

    grüsse aus Heidelberg

    ca. 100 Tasmota Geräte teilweise mit SML Script.

    Alexa, Sonos, Pilot APP zur Steuerung, Domoticz und TasmoAdmin auf Raspberry mit Docker

  • Das geht genauso wie bei Power: http:///...cmnd=color%20FF0000 wenn du z. B. ein reines Rot willst. Color und HSBColor nutzt du im Prinzip alternativ - es sind zwei verschiedene Systeme der Beschreibung von Farbe HSB = Hue, Saturation und Brightness in Werten jeweils zwischen 0 und 360 für Hue und 0 bis 100 für die beiden anderen Werte. Color setzt die Werte in jeweils 256 Stufen in der Schreibweise color FF00FF (hexadezimal) alternativ geht es auch in dezimaler Schreibweise mit color 255,0,255. Beides gibt ein kräftiges Pink in 100 % Helligkeit. Wenn du aber z. B. color 127,0,127 eingibst, bekommst du auch ein Pink allerdings in ca. 50 % Helligkeit. Du brauchst also im Prinzip nur einen Befehl (color oder HSBcolor) und die entsprechenden Werte, um gleichzeitig auch die Helligkeit zu ändern. Die Werte ermittelst du dir für die gewünschten Farben am besten per try and error auf der Konsolenzeile. Im Konsolenfenster siehst auch, wie sich die HSB- und die Dimmerwerte ändern auch wenn du nur mit verschiedenen color-Werten arbeitest.

  • Ich hatte beim Testen wohl zu viel Parameter, nutze ich nur Color funktionert das ganze, Danke für den Tipp

    grüsse aus Heidelberg

    ca. 100 Tasmota Geräte teilweise mit SML Script.

    Alexa, Sonos, Pilot APP zur Steuerung, Domoticz und TasmoAdmin auf Raspberry mit Docker

  • Hei. Wie habt Ihr denn die Birne mit Tasmota geflashed.

    Wollte es OTA via RPI4 machen mit tuyaconvert.

    Das Schreiben an sich klappt aber nicht. Es kommt immer:

    SmartConfig complete.
    Resending SmartConfig Packets
    ....................
    SmartConfig complete.
    Resending SmartConfig Packets
    ....................

    Und dann hört er auf.