Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Angriff auf Siri, Alexa & Co.: Forscher hacken smarte Lautsprecher mit Laserlicht

Nahezu alle Geräte mit eingebauten Sprachassistenten sind höchstwahrscheinlich prinzipiell anfällig für Angriffe aus der Ferne – und zwar mit Hilfe von Laserlicht. Forscher konnten damit jetzt smarte Lautsprecher aus größerer Entfernung aktivieren und erhielten so einen fast uneingeschränkten Zugriff auf die Geräte. Betroffen sein dürften aber auch Smartphones.


Schwachstelle in den Mikrofonen
Zunutze machten sich die an der Universität von Michigan und der Universität für Elektrokommunikation (UEC) in Tokio tätigen Wissenschaftler eine Schwachstelle der in den Geräten verbauten Mikrofone. Bei diesen handelt es sich um sogenannte Mikrosysteme (Micro-electro-mechanical systems, MEMS), welche offenbar nicht nur auf Schallwellen reagieren, sondern auch mit einem Laser angeregt werden können. Mit Geräten im Wert von wenigen hundert Euro konnten die Forscher so aus Entfernungen von bis zu 110 Metern mit speziell modulierten Lasersignalen Sprachbefehle simulieren, die Siri, Alexa und der Google Assistant dann ausführten.


Garagentor aus der Ferne geöffnet
Unter anderem gelang es den Wissenschaftlern Takeshi Sugawara, Benjamin Cyr, Sara Rampazzi, Daniel Genkin und Kevin Fu, Googles smarten Lautsprecher durch ein geschlossenes Fenster hindurch dazu zu bewegen, ein Garagentor zu öffnen. Als anfällig für derartige Attacken erwiesen sich dem Bericht der Forscher zufolge aber unter anderem auch ein iPhone XR und ein iPad, ein Samsung Galaxy S9 sowie Amazons Echo-Lautsprecher. Die Wissenschaftler gehen allerdings davon aus, dass die Sprachassistenten nahezu aller Smartphones auf diese Art und Weise angegriffen werden können, sofern in diesen MEMS-Mikrofone zum Einsatz kommen.


Gefahr im Alltag äußerst gering
Die Gefahr, dass Nutzer von smarten Lautsprechern oder Smartphones derartigen Angriffen im täglichen Leben ausgesetzt sein könnten, ist allerdings äußerst gering. Zum einen müssten Hacker über eine direkte Sichtverbindung zum jeweiligen Gerät verfügen, schon eine Gardine würde daher eine Attacke zuverlässig unterbinden. Darüber hinaus muss der Laserstrahl den Forschern zufolge präzise auf eine bestimmte Stelle des Mikrofons gerichtet sein, was in der Praxis nur schwerlich möglich sein dürfte. Zudem würde selbst ein gelungener Angriff in aller Regel nicht unbemerkt bleiben, da alle Sprachassistenten eine akustische Rückmeldung ausgeben, wenn sie einen Befehl ausführen.

Kommentare

MacSquint
MacSquint05.11.19 10:43
Die Teile kommen bei mir eh nichts ins Haus und Hey Siri ist natürlich überall deaktiviert, wie auch alles an Datenweitergabe geblockt, was man noch blocken kann, was eh schon zu wenig ist...
Für etwas Bequemlichkeit den letzten Rest Privatheit zu opfern, ist auch wahrhaftig fahrlässig und unvernünftig...
+1
truth
truth05.11.19 10:44
Was nützt das "Hindernis" akustische Rückmeldung, wenn niemand im Haus ist?
+8
chrissli05.11.19 10:52
Mal wieder unnötige Panikmache. Sowohl Alexa als auch Siri habe ich beide schon genutzt um meine Haustür zu öffnen – da beide aber wissen, dass es allein schon mit nem offenen Fenster möglich wäre von draußen die Sprachsteuerung zu aktivieren, haben beide eine Sicherheitshürde für Türschlösser-Steuerung. Bei Alexa wird ein PIN abgefragt und bei Siri muss man das iPhone entsperren, der HomePod selbst öffnet die Tür nicht.
+10
Cliff the DAU
Cliff the DAU05.11.19 11:07
chrissli
Sowohl Alexa als auch Siri habe ich beide schon genutzt um meine Haustür zu öffnen.

Ich benutze immer einen Schlüssel.
„Es gibt keine Nationalstaaten mehr. Es gibt nur noch die Menschheit und ihre Kolonien im Weltraum.“
+10
gegy05.11.19 11:33
MacTechNews
Gefahr im Alltag äußerst gering
Die Gefahr, dass Nutzer von smarten Lautsprechern oder Smartphones derartigen Angriffen im täglichen Leben ausgesetzt sein könnten, ist allerdings äußerst gering. Zum einen müssten Hacker über eine direkte Sichtverbindung zum jeweiligen Gerät verfügen, schon eine Gardine würde daher eine Attacke zuverlässig unterbinden. Darüber hinaus muss der Laserstrahl den Forschern zufolge präzise auf eine bestimmte Stelle des Mikrofons gerichtet sein, was in der Praxis nur schwerlich möglich sein dürfte. Zudem würde selbst ein gelungener Angriff in aller Regel nicht unbemerkt bleiben, da alle Sprachassistenten eine akustische Rückmeldung ausgeben, wenn sie einen Befehl ausführen.

Das sehe ich anders:
1.) Viele solcher Geräte stehen am Fenster
2.) Die Wohnungen stehen meist leer, damit hat der Angreifer genug Zeit den Punkt zu suchen und zu treffen. Außerdem würde das Antwort-Kommando von niemandem gehört.
3.) Den Laser sieht man nicht, nur den auftreffenden Punkt.

Also als "äußerst gering" würde ich das nicht einstufen.
+2
Legoman
Legoman05.11.19 11:54
Die vielen negativen Bewertungen lassen für mich nur einen Schluss zu:
Sprachsteuerung voll geil, Sicherheitsbedenken nur doofe Panikmache.
Echt jetzt? Na dann verwanzt euch mal weiterhin schön selbst für einen allenfalls minimalen Komfortzuwachs.Im Traum käme ich nicht auf diese Idee. Bisher habe ich wirklich noch nichts gesehen, wofür ich eine Sprachsteuerung brauchen könnte. Was ich bei anderen gesehen habe, ist allenfalls eine Unterstützung von Faulheit. Nichts, was man nicht auch über eine Tastatur eintippen könnte. Und darüber hinaus käme ich mir wirklich reichlich blöd dabei vor, mich in der Öffentlichkeit mit einem Sprachassistenten rumzustreiten.
Aber nun - jeder so, wie er mag. Und sicherlich mag es auch eine Unterstützung für Personen mit Einschränkungen sein. Aber für die meisten ist es nur ein überbewertetes Spielzeug mit kaum abschätzbarem Gefahrenpotential.


Wie funktioniert eigentlich diese PIN-Eingabe bei Alexa zum Öffnen der Wohnungstür?
Jetzt sag mir bitte nicht, dass du dann laut deine PIN in der Gegend rumbrüllst?
Das wäre so blöd, dass sich selbst der Postillon schlapplachen würde!
+1
NONrelevant
NONrelevant05.11.19 14:28
Ich wäre von dieser Sicherheitslücke theoretisch betroffen, da ich keine Vorhänge habe und mein HomePod so steht, dass den ein Bösewicht mit einem Laser gut erreichen kann. Auch mein Nachbarn, aus einer deren Wohnungen der Angriff ja ausgeführt werden müsste, ist keine 110 Meter von Standort meines HomePods entfernt. Aber wie wahrscheinlich ist es, dass einer meiner Nachbarn in meine Wohnung eindringen will? Wenn ich solche Nachbarn habe, brauche ich keine Einbrecher / Stalker mehr!
Und nur mal so nebenbei, ein herkömmliches Türschloss ist von einem Profi in nicht mal 13 Sekunden geknackt. Und laut Polizei-Statistik dringen die meisten Räuber nachmittags in Wohnung ein.

Nichts desto trotz hoffe ich, dass diese Lücke gefixt wird.
NONrelevant - Wer nicht selber denkt, für den wird gedacht.
0
marco m.
marco m.05.11.19 15:13
Legoman
Die vielen negativen Bewertungen lassen für mich nur einen Schluss zu:
Sprachsteuerung voll geil, Sicherheitsbedenken nur doofe Panikmache.
Nicht doof, aber für die meisten uninteressant. Das Leben mit der neuen Technik genießen, und gut ist. Hat sich dadurch bei mir irgendwas zum negativen verändert? Lass mich mal kurz überlegen. Nein!
Und wenn ich mir den Beitrag von MacSquint durchlese, frage ich mich, wie er es überhaupt auf diese Seite geschafft hat? Und er kann mir glauben, das "Internet" weiß schon längst alles über ihn.
Chevy Chase: Twenty years ago, we had Steve Jobs, Johnny Cash and Bob Hope. Now we have no jobs, no cash, and no hope. Please, don't let Kevin Bacon die!
-5

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.