Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Angriff mit Ultraschall: Forscher übernehmen Siri und andere Sprachassistenten

Die magischen zwei Worte lauten "Hey, Siri!" und wer sie ausspricht, dem stehen (fast) alle Möglichkeiten offen, welche ein iPhone bietet. Allerdings gilt das nur unter einer Voraussetzung, nämlich dass Siri zuvor auf die jeweilige Stimme trainiert wurde. Wen Apples Sprachassistent nicht am Klang erkennt, dem verweigert er den Dienst. Allerdings lässt sich diese Sicherheitsfunktion offenbar aushebeln, wie Forscher herausgefunden haben.


Angriff mit Ultraschall
Ein Team von fünf Wissenschaftlern, die an US-amerikanischen und chinesischen Universitäten tätig sind, trickste sowohl Siri als auch die Sprachassistenten von Google und Samsung aus. Für die Angriffe nutzten sie für das menschliche Ohr unhörbare gerichtete Ultraschallwellen. Diese übertrugen sie mit Hilfe eines piezoelektrischen Signalwandlers im Wert von fünf US-Dollar an Smartphones, auf denen die digitalen Helfer aktiv waren. Insgesamt testeten die Forscher ihr Verfahren mit 17 Geräten, darunter einige iPhones, Google Pixel und Samsung Galaxy.

Assistenten führten Befehle aus
Die Einzelheiten ihres "SurfingAttack" getauften Angriffs beschreiben die Forscher in einem jetzt veröffentlichten wissenschaftlichen Aufsatz. Anders als bei der bereits seit 2017 bekannten "DolphinAttack", welche ebenfalls mit Ultraschall arbeitete, übertrugen sie die Wellen nicht durch die Luft, sondern leiteten sie durch massive Materialien wie etwa eine Tischplatte. Dabei gelang es ihnen, die Sprachassistenten auf nahezu allen Geräten über eine Distanz von bis zu neun Metern durch die Ultraschallsignale zu aktivieren und Befehle ausführen zu lassen. Sie konnten beispielsweise Anrufe tätigen, Fotos und Videos aufnehmen sowie sogar eine Textnachricht öffnen und lesen, welche den Code für eine Zwei-Faktor-Autorisierung enthielt. Darüber hinaus schalteten sie die Geräte zuvor mit einem unhörbaren Befehl stumm.

Mikrofone sind die Ursache des Problems
Zunutze machten sich die Wissenschaftler eine technische Besonderheit der in den Smartphones verbauten MEMS-Mikrofone. Diese enthalten eine spezielle Membran, mit welcher Schall- oder Lichtwellen in Befehle umgewandelt werden können. Lediglich auf zwei Geräten, nämlich dem Huawei Mate 9 und dem Samsung Galaxy Note 10+ funktionierte der Angriff auf die Sprachassistenten nicht. Als ebenfalls nicht anfällig für derartige Attacken erwiesen sich die smarten Lautsprecher von Amazon und Google, obwohl in ihnen ähnliche Mikrofone verbaut sind.

Kommentare

laancelot05.03.20 17:25
War das nicht schon vor einem Jahr Thema?
0
BWeigelt05.03.20 17:30
laancelot

Ich glaube da waren es Lichtwellen(Laserstrahlen) mit denen man die Assistenten Aktiviert hat.
0
Dupondt05.03.20 17:34
laancelot
War das nicht schon vor einem Jahr Thema?

Nein, die Ultraschall-Attacke auf Smartphones ist neu. Im November 2019 gab's einen Hack von smarten Lautsprechern mit Hilfe von Laserlicht; die News dazu ist unter "Ergänzende Artikel" verlinkt.
0
S12-valve05.03.20 17:53
Was? Seit wann soll Siri nur auf bestimmte Personen reagieren. Egal ob ich oder die kids Ohrverletzungen sagen, sie regiert immer. Schön wäre nur noch, wenn sie mit den AirPods Pro IMNER regieren würde 🙄🤦‍♂️
+1
sierkb05.03.20 17:53
Dupondt
laancelot
War das nicht schon vor einem Jahr Thema?

Nein, die Ultraschall-Attacke auf Smartphones ist neu.

t3n (10.09.2017): Forscher hacken Siri und Alexa per Ultraschall
Ultraschall macht‘s möglich: Chinesische Sicherheitsforscher haben mit dem sogenannten „Delfin-Angriff“ Sprachassistenten wie Siri, Alexa oder Google Now gehackt.

mobile geeks (09.09.2017): Smart Home: Delfin-Angriff: Ultraschall-Hack auf verschiedene Sprachassistenten
Sprachassistenten können, genau wie bestimmte Tiere, Töne im Ultraschallbereich wahrnehmen. Das macht sie jedoch angreifbar für die sogenannte Delfin-Attacke, bei der ihr Besitzer nicht einmal etwas von dem Hack mitbekommt. Chinesische Sicherheitsforscher haben sich nun mit dem Angriff auseinandergesetzt und eine Lösung gefunden.

Giga (07.09.2017): Lautloser Angriff: iPhone und Alexa über Ultraschall gehackt
Der lautlose Angriff auf Smartphones und smarte Lautsprecher. Mit Hilfe von Ultraschall können sie gehackt werden, ohne dass der Besitzer etwas bemerkt.

Fast Company (06.09.2017): A Simple Design Flaw Makes It Astoundingly Easy To Hack Siri And Alexa
Hackers can take control of the world’s most popular voice assistants by whispering to them in frequencies humans can’t hear.

Zhejiang University (31.08.2017): DolphinAttack: Inaudible Voice Commands (PDF)
+4
Deichkind05.03.20 21:00
Frühere Veröffentlichungen zum Thema Angriff durch Ultraschallwellen werden im dem Aufsatz zitiert. Dort ging es um durch die Luft übertragene Ultraschallwellen. Im vorliegenden Fall werden sie durch einen Festkörper übertragen, zum Beispiel durch die Tischplatte, auf der das Gerät liegt.
+1
Dupondt05.03.20 21:32
Deichkind

Danke für den Hinweis, diesen Aspekt hatte ich wohl beim Lesen des Aufsatzes übersehen. Ich habe den entsprechenden Absatz ergänzt.
0
Deichkind06.03.20 07:44
Das neue Szenario ist ernster zu nehmen. Bei Abstrahlung von US in die Luft muss der Strahler genau auf das Zielobjekt ausgerichtet werden, und es dürfen keine Objekte im Weg stehen, denn US-Strahler sind naturgemäß Richtstrahler. In dem Beispiel des neuen Szenarios muss der Schallgeber nur irgendwo an der Platte befestigt sein.
0
teorema67
teorema6706.03.20 09:32
Lediglich auf zwei Geräten, nämlich dem Huawei Mate 9 und dem Samsung Galaxy Note 10+ funktionierte der Angriff auf die Sprachassistenten nicht.

Gibt es dafür eine Erklärung? Funktioniert der Angriff beim Note10 und beim Note10 5G auch nicht?
Rassismus ist, überall Rassismus zu wittern, wo keiner ist, und damit echten Rassismus zu bagatellisieren. (Dieter Nuhr)
0
Raziel106.03.20 09:34
S12-valve
Was? Seit wann soll Siri nur auf bestimmte Personen reagieren. Egal ob ich oder die kids Ohrverletzungen sagen, sie regiert immer. Schön wäre nur noch, wenn sie mit den AirPods Pro IMNER regieren würde 🙄🤦‍♂️

Die Funktion ist doch schon länger in iOS zu finden und ich glaube beim Update damals (welche iOS version war es? 12?) rufe man sogar gefragt das direkt durchzuführen. Die Funktion soll soweit möglich verhindern, dass Siri auf fremde Stimmen reagiert bzw besser auf die eigene. Wie gut es funktioniert hängt natürlich davon ab wie sehr sich Stimmen ähneln
0
PaulMuadDib06.03.20 10:08
Nein! Doch! Ooocchh!

Wer hätte das gedacht: Ein Sprachassistent lässt sich mit Schall austricksen. Da muß noch sehr viel Wasser den Rhein runterfließen, bis das halbwegs sicher wird. Falls das überhaupt möglich ist.
-1
Pixelmeister10.03.20 14:12
Naja, in einem Agenten-Film mag das funktionieren. Mit meinem iPhone aber z.B. nicht. Zum einen ist Siri im Sperrbildschirm ausgeschaltet, zum anderen der Zuruf "Hey Siri" deaktiviert. Solange Infraschall also den Homebutton nicht drücken kann, ist mein Gerät save. Und dann muss man das Gerät auf eine Tischplatte legen – was man üblicherweise nur tut, wenn man den anderen Personen im Raum traut. Und dann muss der Besitzer vom Gerät weggelockt werden, denn selbst wenn das Gerät stumm ist, so schaltet sich doch der Bildschirm ein. Und funktioniert das auch mit der kippeligen Verbindung von modernen iPhones mit Tischplatten – oder auch durch eine Lederhülle hindurch?

Also, für ein echtes Szenario außerhalb von James-Bond-Filmen halte ich die Sache doch für recht konstruiert. Und ganz ehrlich, einfach entwenden (, manipulieren, zurücklegen) funktioniert, seitdem es Taschendiebe gibt – das ist nach wie vor einfacher.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.