Delfin-Attacken

Siri, Alexa & Co. hackbar durch nicht hörbare Signale

12.05.2018
Von 
Panagiotis "Takis" Kolokythas arbeitet seit Juni 2000 für pcwelt.de. Seine Leidenschaft gilt IT-News, die er möglichst schnell und gründlich recherchiert an die Leser weitergeben möchte. Er hat den Überblick über die Entwicklungen in den wichtigsten Tech-Bereichen, entsprechend vielfältig ist das Themenspektrum seiner Artikel: Windows, Soft- und Freeware, Hardware, Smartphones, soziale Netzwerke, Web-Technologien, Smart Home, Gadgets, Drohnen… Er steht regelmäßig für PCWELT.tv vor der Kamera und hat ein eigenes wöchentliches IT-News-Videoformat: Tech-Up Weekly.
Siri, Alexa & Co. können angegriffen werden, indem sie über nicht hörbare Signale aktiviert werden. Davor warnen Forscher.

Sie werden Delphin-Attacken genannt und machen smarte Systeme angreifbar. Laut Sicherheitsforschern der UC Berkeley sind davon alle verfügbaren Systeme betroffen. Egal ob Google Assistant, Amazon Alexa oder Apple Siri. Das berichtet die New York Times. Das Prinzip und daher auch der Name der Attacke: Der Sprachassistent wird über ein für das menschliche Ohr nicht hörbares Signal aktiviert. Den Ton kann beispielsweise eine Website von sich geben. Während der Nutzer also die Website ansurft, aktiviert sich der im Raum befindliche smarte Lautsprecher oder sein Smartphone. Alternativ kann das Signal auch in einem Song versteckt sein.

Digitale Assistenten wie Siri läuten die Post-App-Ära ein.
Digitale Assistenten wie Siri läuten die Post-App-Ära ein.

Verwiesen wird dabei auch auf ein Studie von Forschern der Princeton Universität und der chinesischen Zhejian Universität aus dem vergangenen Jahr, in dem ebenfalls vor Delphin-Attacken gewarnt wird. Hier kamen aber Ultra-Schallsensoren zum Einsatz, von denen die Signale aus an das in der Nähe befindliche Gerät gesendet werden müssen, daher auch der Name "Delphin-Attacke".

In dem Beispiel dort wird beschrieben, wie durch ein nicht hörbares Signal der persönliche Assistent aktiviert wird und zunächst den Befehl erhält, keinerlei Sprachausgaben mehr tätigen zu dürfen. Dadurch soll verhindert werden, dass der Besitzer des Geräts den Verlust der Kontrolle bemerkt. Anschließend ist es dann möglich Telefongespräche zu führen oder die auf dem Gerät befindlichen Informationen und Bilder abzuschöpfen.

Die Forscher von Berkeley haben die Delphin-Attacke nun für ein Szenario beschrieben, bei dem der Ton über ein einfacheres Verfahren übertragen wird. Ihre Empfehlung lautet, dass digitale Assistenzsysteme eine stark verbesserte Sicherheit benötigen. Etwa indem mit einer höheren Genauigkeit erkannt wird, ob ein Kommando tatsächlich vom Besitzer kommt und nur diese Kommandos auch ausgeführt werden. Alexa und Google Assistant bieten eine solche Funktion zumindest optional an. Bei iOS erfolgt der Zugriff auf die persönlichen Daten von Siri nur dann, wenn vorher das Gerät entsperrt wurde. Insgesamt stecke die Technologie, so die Forscher, aber noch in den Kinderschuhen, was die Sicherheit angehe. Mit steigender Verbreitung müsse aber auch die Sicherheit stark verbessert werden.


(PC-Welt)