Quantcast
Channel: Flo's Weblog | Apple News and more... Alles über Apple und Gadgets
Viewing all articles
Browse latest Browse all 6114

Forscher speisen schädliche Sprachbefehle für Siri und Co. in Musikdateien ein

$
0
0

Eine Gruppe von Studierenden der University of Berkeley haben offenbar eine Schwachstelle in verbreiteten Sprachassistenten, wie Siri, dem Google Assistant oder Amazons Alexa entdeckt. Dabei können bestimmte, schädliche Befehle in laufender Musik oder sonstiger harmlos klinmgender Sprache versteckt werden. Das Abspielen dieser Sounddaten könnte von einem Angreifer dafür genutzt werden, um beispielsweise Smart-Home-Geräte zu übernehmen und zu steuern. Die New York Times berichtet, dass die Forschungsarbeit bereits im Jahr 2016 begann und nun vorgestellt wurde.

Die versteckten Befehle sind für das menschliche Ohr nichtb zu hören und werden auch von Maschinen anders verarbeitet als dies der Mensch tun würde. Auf diese Weise ist es beispielsweise gelungen, den Befehl "OK Google, browse to evil.com" in einem Musikstück zu verstecken, unter anderem in einen viersekündigen Clip von Verdis "Requiem".

Dieses Angriffs-Szenario ist freilich nicht neu und wurde von Wissenschaftlern der Princeton University und der Zhejiang University in China bereits in Form von Ultraschall-Frequenzen erforscht. Aktuell gibt es von beiden Angriffen offenbar noch keine Beispiele aus der Realität, dies sei den Berkeley-Forschern aber relativ problemlos möglich.

Apple betont auf der anderen Seite allerdings, dass man Siri mit verschiedenene Maßnahmen gegen einen solchen Angriff ausgestattet habe. So soll der unter anderem auch zur Steuerung von Smart-Home-Geräten, wie unter anderem Türschlössern, einsetzbare HomePod nicht auf die Befehle reagieren. Auch das iPhone und das iPad müssen entsperrt sein, ehe Siri auf Kommandos reagiert, die sensible Daten betreffen, Smart-Home-Gadgets steuern oder auch Apps und Webseiten öffnen.


Viewing all articles
Browse latest Browse all 6114