Für Verbraucher
Für Unternehmen
Fr, 12.04.2019 - 08:00

SiBa-News

Alexa: Sprachaufnahmen werden abgehört und ausgewertet

Amazons Assistent Alexa lässt sich mithilfe von Sprachbefehlen steuern. So kann man das Gerät beispielsweise nach dem Wetter fragen, Informationen im Internet suchen, Musik abspielen und vieles mehr. Ausgelöst werden entsprechende Befehle mit dem Schlüsselwort „Alexa“ - nur wenn dieser Begriff fällt, soll der Assistent aktiv werden.

 

Dies ist aber nur möglich, wenn das Mikrofon von Alexa permanent aktiv ist und zuhört. Sprachaufnahmen werden indes nur angefertigt, wenn tatsächlich das Schlüsselwort fällt – zumindest in der Theorie. Praktisch ist das System aber fehleranfällig: Zum einen werden Sprachaufnahmen gemacht, obwohl „Alexa“ nicht gefallen ist, zum anderen werden Sprachbefehle nicht richtig verstanden.

 

Wie sich nun herausstellte, lässt Amazon einen Teil der Sprachaufnahmen von Mitarbeitern abhören und auswerten um das System zu verbessern. Dass dies der Fall ist, wird jedoch in der Datenschutzerklärung des Dienstes nicht klar ersichtlich. Besonders problematisch ist der Umstand, dass auch Aufnahmen abgehört werden, die ohne Schlüsselwort angefertigt wurden.

 

Der Konzern betont, dass die Aufnahmen anonym ausgewertet werden und alle Informationen vertraulich behandelt werden. Nutzer von Alexa können der Verwendung ihrer Sprachaufnahmen zur Verbesserung widersprechen, in dem sie in der Alexa-App auf dem Smartphone zum Menüpunkt „Einstellungen“ --> „Alexa-Konto“ --> „Alexa-Datenschutz“ navigieren und dort zwei Regler deaktivieren: Einer erlaubt Amazon die Verwendung von Daten zur Entwicklung neuer Funktionen, der andere zur Verbesserung der Spracherkennung.

 

Auch Google und Apple, die Hersteller der Assistenten Google Assistant und Siri haben inzwischen bestätigt, dass menschliche Prüfer eingesetzt werden, um die Spracherkennung der Dienste zu verbessern. Dank Anonymisierung sollen auch hier die Mitarbeiter keine Rückschlüsse auf die Identität der Nutzer ziehen können.

 

Beim Google Assistant lässt sich die Speicherung von Sprachaufnahmen ebenfalls deaktivieren. Navigieren Sie hierzu in ihrem Google-Konto zum Punkt „Meine Aktivitäten“ --> „Sprache & Audio“ und schalten Sie den Regler unter „Einstellungen ändern“ auf „pausiert“. Bei Siri kann die Übertragung in die Cloud in den iOS-Einstellungen deaktiviert werden: „Einstellungen“ --> „iCloud“ --> „Speicher verwalten“ --> „Siri“ --> „Deaktivieren und löschen“.

Weitere Sicherheitshinweise

Sicherheitslücke bei GTA V könnte Schadsoftware ermöglichen
Beim populären Computerspiel Grand Theft Auto V wurde eine Schwachstelle bekannt, die es Angreifern ermöglicht, Spieldaten aus der Ferne zu manipulieren. Dies kann im schlimmsten Fall dazu führen, das Spielerkonten geblockt oder gelöscht werden. Darüber hinaus besteht der Verdacht, dass die Sicherheitslücke genutzt werden kann, um Schadsoftware auf betreffenden Zielgeräten auszuführen. Der... Mehr...
Polizei warnt 1&1-Kund:innen vor Betrug per E-Mail
Das Landeskriminalamt Niedersachsen warnt in seiner gestern veröffentlichten Pressemitteilung Kund:innen von 1... Mehr...
Bafin warnt von Handy-Trojaner "Godfather"
Die Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) hat eine Warnung vor der Schadsoftware "Godfather" veröffentlicht, die weltweit ihr Unwesen treibt. Auch Nutzer:innen in Deutschland sind betroffen. Bei der Schadsoftware handelt es sich um einen Trojaner, welcher sich in Smartphones einnistet, Eingaben bei Banking-Apps aufzeichnet und an Betrüger übermittelt. Außerdem greift "Godfather... Mehr...
Deutschland sicher im Netz
Jetzt engagieren und Menschen aufklären
Jetzt bei DsiN mitmachen