Wissenschaftliche Erkenntnis

Forscher: Alexa und Co. lassen sich mit manipulierter Musik überlisten

31.01.2018
Von 
Peter Müller ist der Ansicht, dass ein Apple täglich den Arzt erspart. Sei es iMac, Macbook, iPhone oder iPad, was anderes kommt nicht auf den Tisch oder in die Tasche. Seit 1998 beobachtet er die Szene rund um den Hersteller von hochwertigen IT-Produkten in Cupertino genau. Weil er schon so lange dabei ist, kennt er die Apple-Geschichte genau genug, um auch die Gegenwart des Mac-Herstellers kritisch und fair einordnen zu können. Ausgeschlafene Zeitgenossen kennen und schätzen seine Beiträge im Macwelt-Morgenmagazin, die die Leser werktags pünktlich um acht Uhr morgens in den nächsten Tag mit Apfel und ohne Doktor begleiten. Privat schlägt sein Herz für die Familie, den FC Bayern, sechs Saiten, Blues-Skalen und Triolen im Shuffle-Rhythmus.
Man hört nichtsahnend Radio und schon überweist Alexa Geld auf ein fremdes Konto. Das Horroszenario ist theoretisch möglich.

Spötter sagen ja, spiele man das letzte Nickelback-Album rückwärts ab, höre man die darin enthaltenden satanischen Botschaften. Spiele man es aber vorwärts, sei es viel schlimmer, denn dann höre man die Musik von Nickelback. Forscher von IBM, amerikanischen und chinesischen Instituten haben laut "The Register" nun aber gezeigt, dass man Kommandos für Sprachassistenten wie Google Assistant, Alexa oder Siri gut in Musik verstecken kann – die muss nicht von Chad Kroeger und Kollegen sein und man muss sie gar nicht mal rückwärts abspielen.

Alexa, überweise 1000 Euro auf das Konto mit der IBAN...
Alexa, überweise 1000 Euro auf das Konto mit der IBAN...
Foto: pianodiaphragm - shutterstock.com

Die Befehle für die Sprachassistenten lassen sich laut der Forscher so tarnen, dass sie kaum hörbar sind und allenfalls als Verzerrungen oder Fehler im Stream wahrgenommen werden. Echo und Google Home hören aber sehr wohl Aufforderungen, wie die Haustür zu öffnen oder eine bestimmte Nummer zu wählen. Oder gar eine Überweisung auf ein bestimmtes Konto zu tätigen. Die Quelle der manipulierten Songs könnten TV, Radio oder beliebige Mediaplayer sein. In einem Feldtest variierte die Erkennungsrate zwischen 60 und 94 Prozent.

Um eine höhere Akkuratesse zu erreichen, müsste man Technologien wie Amazons Alexa einem "Reverse Engineering" unterziehen, um mehr über die Spracherkennungsmechanismen zu erfahren. Aber vielleicht ist die Erkenntnis der Wissenschaftler gerade für die Anbieter von schlauen Assistenten interessant, da sie ja auch Musik an ihre Kunden streamen. Mithilfe des Forschungsergebnisses könnten Amazon, Apple und Google ihre Dienste aber auch weiter absichern, damit eben nicht Dritte mit manipulierten Songs die Konten der Nutzer abräumen oder ihre Wohnungen öffnen. (Macwelt)