- Von Sanja Sever-Silajdzic
- 11.05.2018 um 12:40
Smarte Sprachassistenten erfreuen sich großer Beliebtheit. Gesteuert durch simple Zurufe erledigen Siri, Alexa und Googles Assistent alltägliche Aufgaben – sie spielen einen gewünschten Song, rufen beliebige Personen an oder dimmen das Licht. Doch wie die New York Times berichtet, können die kleinen Helfer heimliche Befehle empfangen – und dadurch möglicherweise von Fremden gesteuert werden.
Manipulierte Spracherkennung
Die Forscher in China und in den USA beschäftigen sich seit zwei Jahren mit den Sicherheitsrisiken der smarten Sprachassistenten. So waren sie in der Lage, heimliche Befehle an diese zu übermitteln. Für das menschliche Ohr nicht wahrnehmbare Signale wurden teils in Musik oder Hörbüchern versteckt. „Spracherkennungsdienste übersetzen in der Regel alle Töne in Buchstaben und stellen im Anschluss Wörter und Phrasen zusammen“, erklärt die New York Times. „Indem Forscher kleine Änderungen an Audiodateien vornahmen, konnten sie den Klang für Spracherkennungsdienste manipulieren und mit anderen Tönen ersetzen, die von den Geräten anders interpretiert wurden – während sie für Menschen nicht wahrnehmbar waren.“
Bedenkliche Sicherheitslücke
Die Vernetzung der smarten Lautsprecher mit Smartphones und Smart-Home-Geräten könnte den Hackern eine Reihe von Angriffen ermöglichen. Sie könnten beispielsweise die Haustür entsperren oder die Außenrolladen hochfahren, ohne dass die Nutzer das mitbekommen. Amazon und Google betonen zwar die ständige Verbesserung von Sicherheitsvorkehrungen, die solche Vorfälle verhindern sollen. Und laut Apple können heimliche Befehle nur mit entsperrten iPhones oder iPads durchgeführt werden. Doch die Forscher betonen, dass es derzeit „notorisch einfach ist, diese zu manipulieren“.
Nicholas Carlini, einer der Forscher der Universität Berkeley in Kalifornien, vermutet laut New York Times, dass es nur eine Frage der Zeit ist, bevor Hacker die von den Forschern angewendeten Techniken für sich entdecken. Davor warnt er in seinem Artikel „Cocain Noodles“ – diese Phrase wird oft als „Ok, Google“ missverstanden. Carlini und seine Kollegen wollen zeigen, dass solche Attacken möglich sind – und „hoffen, dass diese dann repariert werden“.
0 Kommentare
- anmelden
- registrieren
kommentieren