Angriff auf Siri, Alexa & Co.: Forscher hacken smarte Lautsprecher mit Laserlicht
Nahezu alle Geräte mit eingebauten Sprachassistenten sind höchstwahrscheinlich prinzipiell anfällig für Angriffe aus der Ferne – und zwar mit Hilfe von Laserlicht. Forscher konnten damit jetzt smarte Lautsprecher aus größerer Entfernung aktivieren und erhielten so einen fast uneingeschränkten Zugriff auf die Geräte. Betroffen sein dürften aber auch Smartphones.
Schwachstelle in den MikrofonenZunutze machten sich die an der Universität von Michigan und der Universität für Elektrokommunikation (UEC) in Tokio tätigen Wissenschaftler eine Schwachstelle der in den Geräten verbauten Mikrofone. Bei diesen handelt es sich um sogenannte
Mikrosysteme (Micro-electro-mechanical systems, MEMS), welche offenbar nicht nur auf Schallwellen reagieren, sondern auch mit einem Laser angeregt werden können. Mit Geräten im Wert von wenigen hundert Euro konnten die Forscher so aus Entfernungen von bis zu 110 Metern mit speziell modulierten Lasersignalen Sprachbefehle simulieren, die Siri, Alexa und der Google Assistant dann ausführten.
Garagentor aus der Ferne geöffnetUnter anderem gelang es den Wissenschaftlern Takeshi Sugawara, Benjamin Cyr, Sara Rampazzi, Daniel Genkin und Kevin Fu, Googles smarten Lautsprecher durch ein geschlossenes Fenster hindurch dazu zu bewegen, ein Garagentor zu öffnen. Als anfällig für derartige Attacken erwiesen sich dem
Bericht der Forscher zufolge aber unter anderem auch ein iPhone XR und ein iPad, ein Samsung Galaxy S9 sowie Amazons Echo-Lautsprecher. Die Wissenschaftler gehen allerdings davon aus, dass die Sprachassistenten nahezu aller Smartphones auf diese Art und Weise angegriffen werden können, sofern in diesen MEMS-Mikrofone zum Einsatz kommen.
Gefahr im Alltag äußerst geringDie Gefahr, dass Nutzer von smarten Lautsprechern oder Smartphones derartigen Angriffen im täglichen Leben ausgesetzt sein könnten, ist allerdings äußerst gering. Zum einen müssten Hacker über eine direkte Sichtverbindung zum jeweiligen Gerät verfügen, schon eine Gardine würde daher eine Attacke zuverlässig unterbinden. Darüber hinaus muss der Laserstrahl den Forschern zufolge präzise auf eine bestimmte Stelle des Mikrofons gerichtet sein, was in der Praxis nur schwerlich möglich sein dürfte. Zudem würde selbst ein gelungener Angriff in aller Regel nicht unbemerkt bleiben, da alle Sprachassistenten eine akustische Rückmeldung ausgeben, wenn sie einen Befehl ausführen.