Smart Speaker

Forscher steuern Smart Speaker mit Lichtsignalen aus der Ferne

+
Google Home (l.) und Amazon Echo - ausgestattet mit Google Assistant und Alexa. Auch Siri ist von der Schwachstelle betroffen.

Smart Speaker sind beliebt - doch nun haben Forschende in Alexa, Siri und Google Assistant eine Sicherheitslücke entdeckt, die Besitzer von Smart Speakern aufhorchen lassen sollte.

Sprach-Assistenten wie Siri, Alexa oder Google Assistant sind beliebt. Der Nutzer spricht ein Kommando - und das Gerät führt es aus. Das reicht von einfachen Aufgaben wie dem Abspielen eines Lieds oder dem Programmieren der Erinnerungsfunktion bis hin zum Steuern externer Geräte wie Lampen, Türschlösser oder Garagentore.

Vor diesem Hintergrund ist eine Schwachstelle, die Forschende in Mikrofonen entdeckt haben, besonders heikel: Ihnen ist es gelungen, verschiedene Sprachassistenten zu hacken - und zwar nicht per Sprachkommandos, sondern mit Lichtsignalen. „Light Commands“ haben Forschende der University of Michigan und der University of Electro Communications in Tokio die Schwachstelle genannt, die sie gefunden haben.

Smart Speaker wie Alexa und Siri reagieren auf Lichtsignale

Im Versuch ist es den Forschenden gelungen, Siri, Google Assistant* und Alexa mit Hilfe eines Laserstrahls auszutricksen. Das gelang in unterschiedlichen Szenarien: aus nächster Nähe, über eine Distanz von 110 Metern und sogar über eine lange Distanz und durch ein geschlossenes Fenster.

„Es ist möglich, Mikrofone dazu zu bringen, auf Licht so zu reagieren, als ob es Klang wäre“, erklärt der Forscher Takeshi Sugawara gegenüber dem Magazin „Wired“. „Das bedeutet, dass jedes Gerät, das auf Klang reagiert, auch auf Lichtkommandos reagiert.“

Smart Speaker: Wie funktioniert der Hacker-Angriff auf Alexa, Siri und Co.?

Die MEMS-Mikrofone, die in Smart Speakern und Smartphones verbaut sind, verwandeln Klang in elektrische Signale. Allerdings lässt sich dieser Mechanismus durch Licht austricksen: Der Laserstrahl bringt ein Bauteil des Mikrofons zum Schwingen, wodurch die elektrischen Signale entstehen. So schicken die Forschenden unhörbare Signale an die Smart Speaker, die darauf reagieren.

Alexa, Siri und Co: Welche Gefahr besteht für Besitzer von Smart Speakern?

Mit Hilfe von „Light Commands“ könnten beispielsweise Garagentore geöffnet werden, die mit dem Smart Speaker verbunden sind, warnen die Forschenden. Genau dieses Szenario hatten sie in ihren Tests ausprobiert. Aber auch nicht autorisierte Online-Einkäufe, das Öffnen von Haustüren oder das Entriegeln und Starten von Fahrzeugen seien so möglich.

Wie kann man den Angriff auf Smart Speaker verhindern?

Um über längere Strecken die richtige Stelle von Alexa, Siri oder Google Assistant mit dem Laser zu treffen, benötigten die Forschenden unter anderem ein Teleobjektiv oder ein Teleskop - der Angriff ist also nicht ganz günstig. Außerdem kann man ihn verhältnismäßig einfach verhindern: Der Smart Speaker darf einfach nicht von außen einsehbar sein - sollte also beispielsweise nicht am Fenster stehen.

Die Forschenden schlagen zudem Mechanismen vor, die den Zugriff aus der Ferne verhindern sollen: So könnte der Smart Speaker vor dem Ausführen eines kritischen Befehls eine Frage stellen und den Befehl erst nach erhaltener Antwort ausführen. Auch möglich sei es, verschiedene Mikrofone zu nutzen: Der Smart Speaker reagiert dann nur, wenn er das Kommando über mehrere Mikrofone empfangen hat.

Smart Speaker: Beliebt und umstritten

Smart Speaker sind beliebt und weit verbreitet: Es gibt Statistiken, wonach jeder vierte US-Amerikaner einen smarten Lautsprecher besitzt. Amazon hat nach eigenen Angaben weltweit fast 120 Millionen Geräte mit Alexa-Unterstützung verkauft - Stand Anfang 2019. Mittlerweile dürften es deutlich mehr sein.

Aber Siri, Alexa und Co. sind auch umstritten: Sie hören jederzeit Gespräche mit*, um bei Bedarf reagieren zu können, kritisieren Datenschützer. Für Empörung sorgten vor einiger Zeit die Enthüllungen, dass Amazon teilweise Mitarbeiter die aufgezeichneten Befehle an Alexa anhören und abtippen lässt - um die Spracherkennung zu verbessern. Auch bei Apples Siri wurde ein entsprechendes Vorgehen bekannt. Mittlerweile haben beide Unternehmen Fehler zugegeben.

Von Tanja Banner

*fr.de ist Teil der bundesweiten Ippen-Digital-Zentralredaktion.

Mehr zum Thema

Das könnte Sie auch interessieren

Meistgelesene Artikel

Forscher rätseln: Wie kann es sein, dass das Schwarze Loch „LB-1“ existiert?

Ein stellares schwarzes Loch mit 70 Sonnenmassen - eigentlich dürfte es gar nicht existieren. Doch chinesische Forscher haben das Objekt mit Hilfe einer neuen …
Forscher rätseln: Wie kann es sein, dass das Schwarze Loch „LB-1“ existiert?

Sensation: Schwarzes Loch macht etwas, das kein Forscher erwartet hätte

Schwarze Löcher gelten als bedrohliche und zerstörerische Himmelsobjekte. Doch nun macht ein Schwarzes Loch etwas, womit kein Forscher gerechnet hätte.
Sensation: Schwarzes Loch macht etwas, das kein Forscher erwartet hätte

Instagram will für Jüngere sicherer werden

Facebook & Co sind eigentlich nichts für Kinder. Deshalb will nun auch Instagram besser kontrollieren, wer sich anmeldet - und die Nutzung des Netzwerks für jüngere …
Instagram will für Jüngere sicherer werden

Paket-Betrug mit Datenklau und Abofalle

Weihnachtszeit ist Paketzeit. Das wissen auch Betrüger - und nutzen die Sorge und Neugierde von Schenkenden aus, ob ihre Weihnachtssendungen wohl schon angekommen sind.
Paket-Betrug mit Datenklau und Abofalle

Kommentare

Hinweise für das Kommentieren

Von Mo. bis Fr. in der Zeit von 18 bis 9 Uhr und am Wochenende werden keine neuen Kommentare freigeschaltet.
Bitte bleiben Sie fair und sachlich - keine Beleidigungen, keine rassistischen, rufschädigenden und gegen die guten Sitten verstoßenden Beiträge. Kommentare, die gegen diese Regeln verstoßen, werden von der Redaktion kommentarlos gelöscht.