Netzwelt

Amazon Echo und Google Home

Wie Smartspeaker zu Wanzen werden

Berliner Sicherheitsforscher haben Apps entwickelt, mit denen sie Nutzer eines Amazon Echo oder Google Home unter Umständen unbemerkt abhören können. Die Kontrollen beider Unternehmen hatten versagt.

SPIEGEL ONLINE

"Goodbye" - Google Home Mini

Von
Sonntag, 20.10.2019   20:15 Uhr

Smarte Lautsprecher sollen nützliche Freund und Helfer sein, nicht heimliche Zuhörer. Doch Forscher der Berliner Security Research Labs (SRLabs) haben clevere Wege gefunden, die Nutzer eines Amazon Echo oder Google Home unbemerkt abzuhören. Ihre Methoden setzen eine gewisse Sorglosigkeit der Opfer voraus, sind aber brisant genug, um beide Unternehmen zu einer Reaktion zu zwingen.

Ausgangspunkt sind die sogenannten Skills für Alexa beziehungsweise die Actions für den Google Assistant, also die externen Apps für die virtuellen Assistenten in den smarten Lautsprechern. Luise Frerichs und Fabian Bräunlein, Sicherheitsforscher der SRLabs, haben harmlos erscheinende Skills und Actions entwickelt und durch die Sicherheitskontrollen von Amazon und Google gebracht. Tatsächlich tun diese aber andere Dinge, als die Nutzer erwarten.

Ein Alexa-Skill etwa gibt sich vordergründig als Horoskop-App aus. Auf einen entsprechenden Sprachbefehl hin fragt Amazons Assistentin nach dem Sternzeichen und liest dann ein Horoskop vor. Nutzer können das mit dem Befehl "Alexa, Stopp" abbrechen, woraufhin die App sich mit einem "Goodbye" verabschiedet.

Doch nach Amazons verpflichtender Kontrolle und Freigabe des Skills änderten Frerichs und Bräunlein den Code im Hintergrund, ohne dass es eine erneute Überprüfung zur Folge hatte. Das Kommando "Stopp" sorgt danach weiter dafür, dass Nutzer ein "Goodbye" hören, doch das Programm bleibt aktiv. Nutzer, die das nicht bemerken und dann in Hörweite ein Gespräch beginnen, werden abgehört.

Das Kommando dazu geben sie unabsichtlich selbst: Der gefälschte Horoskop-Skill beginnt die Aufzeichnung, sobald jemand "Ich" oder ein anderes von den Sicherheitsforscher festgelegtes Wort sagt, das darauf schließen lässt, dass persönliche Informationen folgen. Es ließe sich aber ein ganzer Katalog von Wörtern hinterlegen, die das Abhören aktivieren würden, bis zu 2500 Wörter werden in Entwicklerforen genannt.

Zu sehen ist das in diesem Video.

Für den Google Assistant programmierten Frerichs und Bräunlein einen Zufallszahlengenerator. Auch dessen Code änderten sie nach der Überprüfung und Freigabe durch Google. Auf Kommando gibt der Generator eine zufällige Zahl aus und verabschiedet sich mit einem "Goodbye" sowie einem Ton, den jeder Nutzer als eine Art Ausschaltsignal interpretieren würde.

Doch auch in diesem Fall bleibt der Lautsprecher beziehungsweise die Action aktiv. Im Code hinterlegt ist dazu die Sprachausgabe von unaussprechlichen Unicode-Zeichen, der Google Assistant bleibt also stumm, weil er die Zeichenfolge nicht vorlesen kann. Allerdings wartet er nach der nicht hörbaren Sprachausgabe wieder auf ein Kommando des Nutzers. Kommt keines, wiederholt sich der Vorgang.

Sagt der Nutzer aber irgendetwas, zeichnet der vermeintliche Zufallszahlengenerator das auf und schickt es an den Server von Frerichs und Bräunlein. Ein bestimmtes Aktivierungswort ist dazu nicht nötig. Dann antwortet die App wieder mit eine kurzen Stille, um danach wieder auf weitere Befehle des Nutzers zu warten, auch wenn der gar nicht mehr mit dem Lautsprecher kommuniziert.

Auch hierzu gibt es ein Video der SRLabs.

Außerdem haben sich Frerichs und Bräunlein eine Phishing-Methode (genauer: Vishing) ausgedacht, um an die Passwörter der Amazon- beziehungsweise Google-Nutzer zu kommen. Die entsprechenden Apps wurden wiederum nach der Überprüfung und Freigabe geändert und reagierten auf jede Frage der Nutzer mit einer Fehlermeldung. Diese besagte, dass die entsprechende Funktion derzeit nicht verfügbar sei.

Danach las die App wiederum nur unaussprechliche Zeichenfolgen vor, beispielsweise eine Minute lang. Nach dieser Phase der Stille spielte sie einen Hinweis ab, der lautete: "Für Ihr Gerät gibt es ein wichtiges Sicherheitsupdate. Bitte sagen Sie 'Start', gefolgt von Ihrem Passwort". Für unaufmerksame Nutzer musste das klingen, als ob die Aufforderung nicht mehr von der App, sondern direkt von Amazon kommt, wie in diesem Video zu sehen ist.

Die beiden SRLabs-Experten haben also auf kreative Weise dafür gesorgt, dass ihre Apps für die Lautsprecher auch dann aktiv blieben und mithörten, wenn die Nutzer davon ausgehen konnten, dass die Konversation mit ihren Geräten eigentlich fürs Erste beendet ist. Dennoch gelten für die Abhör- und Phishingversuche mehrere Einschränkungen.

Auch Amazon und Google, die bereits vor einiger Zeit von den SRLabs informiert wurden, halten das Risiko für hinreichend realistisch genug. Ein Amazon-Sprecher teilte auf SPIEGEL-Anfrage mit: "Wir haben Schutzmaßnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird." Wie diese Schutzmaßnahmen aussehen, wollte Amazon nicht verraten.

Fotostrecke

Smarte Lautsprecher im Test: Gadgets mit Alexa und Google Assistant im Vergleich

Google-Sprecherin Lena Heuermann schrieb auf Anfrage: "Wir untersagen und entfernen jede Action, die gegen diese Richtlinien verstößt." Die von den Forschern entwickelten Actions habe Google gelöscht. "Wir setzen zusätzliche Mechanismen ein, um derartiges in Zukunft zu unterbinden."

Für die Nutzer von Smarthome-Geräten bedeutet der Erfolg der SRLabs, dass eine gewisse Aufmerksamkeit im Umgang mit den bequemen Alltagshelfern sinnvoll ist: Wenn sie Skills oder Actions benutzen wollen, sollten sie versuchen, sich über den jeweiligen Anbieter schlau zu machen.

Sie sollten von Zeit zu Zeit darauf achten, ob die LED an den Lautsprechern nur leuchten, wenn sie gerade in Gebrauch sind. Sie sollten wissen, dass Amazon und Google niemals über ihre smarten Assistenten nach einem Passwort für den Amazon- oder Google-Account fragen würden. Und sie sollten die Zwei-Faktor-Authentifizierung aktivieren, um ihre Accounts vor der Übernahme durch Fremde zu schützen. Amazons Anleitung dazu steht hier, die von Google gibt es hier.

insgesamt 58 Beiträge
shardan 20.10.2019
1. Ach?
Das geht? Da hätte man ja nie drauf kommen können. Nicht? Doch! Darauf hätte jeder mit etwas Hirn von selbst kommen müssen. Bei Smartphones ist es ja auch nichts neues, wie z.B. die "Taschenlampen"-App, die sich [...]
Das geht? Da hätte man ja nie drauf kommen können. Nicht? Doch! Darauf hätte jeder mit etwas Hirn von selbst kommen müssen. Bei Smartphones ist es ja auch nichts neues, wie z.B. die "Taschenlampen"-App, die sich später als simpler Datenschnüffler entpuppt. Trotzdem wird ja immer noch alles geladen und installiert was der Kumpel die Freundin oder sonstwer hat, ein Verhalten wie die Lemminge. Nach 30 Jahren in der IT weiß ich genau, warum diese (und einige andere) Schnüffler bei mir keinen Platz finden. Sprachsteuerung geht durchaus ohne Anbindung ans Internet, wenn man etwas Zeit investiert.
DerFreddy 20.10.2019
2. Google steht auf welcher Seite ?
Google beschäftigt einerseits hochqualifizierte Sicherheitsforscher und lebt auf der anderen Seite von Daten der Nutzer. Loggt man den WAN-Verkehr von Android oder Alexa, so wird man sein blaues Wunder bemerken. Teilweise liegen [...]
Google beschäftigt einerseits hochqualifizierte Sicherheitsforscher und lebt auf der anderen Seite von Daten der Nutzer. Loggt man den WAN-Verkehr von Android oder Alexa, so wird man sein blaues Wunder bemerken. Teilweise liegen die Spionagefunktionen nicht einmal im Code des Programmierers, sondern im genutzten Framework. So gönne ich jedem Geheimdienst seine Abhörtätigkeit, aber es muss nicht jede Werbeagentur mein Privatleben analysieren um mit Produktvorschläge zu machen. Schön ist jedoch zu sehen, dass es immer wieder clevere Nerds gibt, die die Lücken finden und veröffentlichen.
Humanfaktor 20.10.2019
3. Vorhersehbar
Mir tut niemand leid, der/die sich von seiner Gadget-Sammlung komplett ausspionieren lässt und fortan nur noch in einer ferngesteuert perfekt zugeschnittenen Nachrichtenblase lebt. Bei vielen Menschen versagen im Gadget-Hype [...]
Mir tut niemand leid, der/die sich von seiner Gadget-Sammlung komplett ausspionieren lässt und fortan nur noch in einer ferngesteuert perfekt zugeschnittenen Nachrichtenblase lebt. Bei vielen Menschen versagen im Gadget-Hype offenbar die grundlegendsten kognitiven Selbstschutzmechanismen komplett, oder werden bewusst und vorsätzlich außer Acht gelassen. Smart-Gadgets kommen mit gar nicht ins haus, wenn ich nicht komplette Kontrolle garantieren kann. Man kann das steuern, so lange man das Steuer auch aktiv selbst bedient, und sich nicht in die Hände der Maschinerie begibt und auf das Prinzip Hoffnung setzt. Das setzt ein gesundes Misstrauen und Bewusstsein für das Problem und die vorhandenen Optionen voraus. Und da scheinen viele bereits zu scheitern. Wer sich allerdings auch in allen privatesten Bereichen komplett nackich machen will, muss sich dann auch nicht wundern, wenn einmal bei Pornhub & Co die Schlafzimmerhörspiele umlaufen, die von Alexa mitgeschnitten wurden, und/oder Bilder, die von den Kameras der Laptops oder Mobiltelefons live abgegriffen wurden. Dass sich das Organisierte Verbrechen in nicht allzu ferner Zukunft sehr speziell mit diesem Datamining befassen wird, und mit den Möglichkeiten, die sich bieten, wenn interessante Informationen über potenzielle Zielpersonen abgegriffen können, dürfte auf der Hand liegen.
Atheist_Crusader 20.10.2019
4.
Ich hab ein paar Technikbegeisterte in meinem Bekanntenkreis, die haben sich gleich eine Alexa und Konsorten besorgt. Die haben ihr Heim auch smarthome-fähig gemacht, mit fernsteuerbaren Heizungen, Kaffeemaschinen, [...]
Ich hab ein paar Technikbegeisterte in meinem Bekanntenkreis, die haben sich gleich eine Alexa und Konsorten besorgt. Die haben ihr Heim auch smarthome-fähig gemacht, mit fernsteuerbaren Heizungen, Kaffeemaschinen, Türschlössern. Allerdings: von denen arbeitet keiner in der IT-Branche. Diejenigen unter meinen Bekannten die in der IT-Branche arbeiten, lehnen derartige Dinge praktisch kategorisch ab, verbinden nach Möglichkeit lieber via Kabel statt drahtlos und klemmen nichts ans Internet das nicht unbedingt am Internet sein muss. Ich glaube, dass sagt eine Menge aus.
Tinytimmi 20.10.2019
5. Arrogant
soll es nicht wirken, aber ich habe vom ersten Tag an für mich festgehalten, dass Amazon Skills nichts anderes sind als Apps aus dem jeweiligen legalen/illegalen Appstore. Also grundsätzlich wach zu sein. Das sollte nach so [...]
soll es nicht wirken, aber ich habe vom ersten Tag an für mich festgehalten, dass Amazon Skills nichts anderes sind als Apps aus dem jeweiligen legalen/illegalen Appstore. Also grundsätzlich wach zu sein. Das sollte nach so vielen Jahren im Umgang mit der neuen Welt doch selbstverständlich sein.

Mehr im Internet

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung

TOP