Amazon Alexa: Fehler machte Sprachassistenten zur Wanze

Sprachassistenten sind praktische Helfer, die auch hierzulande immer beliebter werden - daran gibt es kaum Zweifel. Kritiker führen allerdings immer den fragwürdigen Umgang mit sensiblen Daten ins Feld - und das zurecht, wie ein Forscherteam aus den USA vorführen konnte. Das Team nutzte einen bisher unbekannten Fehler im Alexa-System, um unbemerkt das gesprochene Wort des Besitzers aufnehmen zu können.

Bei Amazon Alexa dreht sich vieles um "Skills", also kleine Apps, welche eine gewisse Sammlung an Funktionen haben, um einen bestimmten Zweck zu erfüllen. Einen solchen Skill haben auch die Sicherheitsforscher von Checkmarx erstellt, in den sie die erforderlichen Funktionen integriert haben. Einer davon war dafür zuständig, dass Alexa nach der Aufnahme des Sprachbefehls nicht in den Ruhemodus zurückschaltet, sondern das Gerät zwang, den Befehl noch einmal abzuhören - und das immer und immer wieder. So konnten die Forscher selbst dann noch den Nutzer abhören, wenn dieser davon ausgging, das Gerät sei längst wieder im Standby-Modus.

Natürlich ist eine solche Funktion von Amazon nicht vorgesehen, denn hierfür musste eine Schwachstelle in einer JavaScript-Datei ausgenutzt werden. Da die Sicherheitsforscher den Fehler nur zu Demonstrationszwecken genutzt haben und niemandem schaden wollten, konnte das Problem schnell von Amazon behoben werden, ohne dass massenhaft Nutzer abgehört wurden. Es zeigt jedoch: Ein Sprachassistent ist bequem und nützlich, aber eben nicht zu 100% sicher. Ein gewisses Risiko bleibt also immer, sobald man sich neuer Technik anvertraut.

Im Übrigen beraten wir Sie gerne über den richtigen Einsatz moderner technischer Geräte und IoT-Anwendungen in einem Smart Home.

Quelle: Engadget