Für Verbraucher
Für Unternehmen
Fr, 12.04.2019 - 08:00

SiBa-News

Alexa: Sprachaufnahmen werden abgehört und ausgewertet

Amazons Assistent Alexa lässt sich mithilfe von Sprachbefehlen steuern. So kann man das Gerät beispielsweise nach dem Wetter fragen, Informationen im Internet suchen, Musik abspielen und vieles mehr. Ausgelöst werden entsprechende Befehle mit dem Schlüsselwort „Alexa“ - nur wenn dieser Begriff fällt, soll der Assistent aktiv werden.

 

Dies ist aber nur möglich, wenn das Mikrofon von Alexa permanent aktiv ist und zuhört. Sprachaufnahmen werden indes nur angefertigt, wenn tatsächlich das Schlüsselwort fällt – zumindest in der Theorie. Praktisch ist das System aber fehleranfällig: Zum einen werden Sprachaufnahmen gemacht, obwohl „Alexa“ nicht gefallen ist, zum anderen werden Sprachbefehle nicht richtig verstanden.

 

Wie sich nun herausstellte, lässt Amazon einen Teil der Sprachaufnahmen von Mitarbeitern abhören und auswerten um das System zu verbessern. Dass dies der Fall ist, wird jedoch in der Datenschutzerklärung des Dienstes nicht klar ersichtlich. Besonders problematisch ist der Umstand, dass auch Aufnahmen abgehört werden, die ohne Schlüsselwort angefertigt wurden.

 

Der Konzern betont, dass die Aufnahmen anonym ausgewertet werden und alle Informationen vertraulich behandelt werden. Nutzer von Alexa können der Verwendung ihrer Sprachaufnahmen zur Verbesserung widersprechen, in dem sie in der Alexa-App auf dem Smartphone zum Menüpunkt „Einstellungen“ --> „Alexa-Konto“ --> „Alexa-Datenschutz“ navigieren und dort zwei Regler deaktivieren: Einer erlaubt Amazon die Verwendung von Daten zur Entwicklung neuer Funktionen, der andere zur Verbesserung der Spracherkennung.

 

Auch Google und Apple, die Hersteller der Assistenten Google Assistant und Siri haben inzwischen bestätigt, dass menschliche Prüfer eingesetzt werden, um die Spracherkennung der Dienste zu verbessern. Dank Anonymisierung sollen auch hier die Mitarbeiter keine Rückschlüsse auf die Identität der Nutzer ziehen können.

 

Beim Google Assistant lässt sich die Speicherung von Sprachaufnahmen ebenfalls deaktivieren. Navigieren Sie hierzu in ihrem Google-Konto zum Punkt „Meine Aktivitäten“ --> „Sprache & Audio“ und schalten Sie den Regler unter „Einstellungen ändern“ auf „pausiert“. Bei Siri kann die Übertragung in die Cloud in den iOS-Einstellungen deaktiviert werden: „Einstellungen“ --> „iCloud“ --> „Speicher verwalten“ --> „Siri“ --> „Deaktivieren und löschen“.

Weitere Sicherheitshinweise

Sicherheitslücke bei Microsoft: Vertrauliche interne Daten auf ungeschütztem Server veröffentlicht
Bei Microsoft hat sich kürzlich eine schwerwiegende Sicherheitspanne ereignet, als Mitarbeitende des Bing-Teams versehentlich sensiblen Code, Anmeldedaten und weitere Daten interne Daten des Konzerns über einen öffentlich zugänglichen Azure-Server freigaben, der nicht durch Kennwörter geschützt war. Die entdeckten Daten wurden erst einen Monat nach einer Sicherheitswarnung entfernt. Besonders... Mehr...
Jetzt bei der Online-Beteiligung im Forum gegen Fakes mitmachen
Heute startet die zweite Phase der Online-Beteiligung im Forum gegen Fakes und alle Bürger:innen sind eingeladen, auf der Plattform der Initiative über die im Bürgerrat entwickelten Empfehlungen abzustimmen. Diese wurden auf Grundlage der Vorschläge aus der ersten Online-Beteiligung in fünf Themengruppen erarbeitet: Künstliche Intelligenz, Soziale Medien, Einfluss fremder Staaten, Medienpraxis... Mehr...
Apple-Warnungen vor Spyware per E-Mail oder SMS sind echt
Es kommt nicht selten vor, dass Verbraucher:innen oder Mitarbeitende von Unternehmen Sicherheitswarnungen per E-Mail oder SMS erhalten, die einen Cyberangriff auf ein Gerät melden. Oft versuchen Angreifer, mit gefälschten Bedrohungen eine Reaktion von ihren potenziellen Opfern zu erzwingen. Ob aus Angst vor möglichen Folgen oder aufgrund der Annahme, dass die Nachricht sowieso gefälscht ist,... Mehr...
Deutschland sicher im Netz
Jetzt engagieren und Menschen aufklären
Jetzt bei DsiN mitmachen