Siri, Alexa und Co: Befehle in Musik können das Zuhause gefährden
Diese Signale können in normalen Audiodateien versteckt werden, etwa in YouTube-Videos und anderen Dateien. Wenn Alexa, Cortana, GoogleAssistant oder Siri die Befehle hören, führen sie die Anweisungen aus.
Welche Gefahren entstehen durch die Hacker?
Bastler haben es geschafft, sprachgesteuerte Assistenzsoftware mit Befehlen zu steuern, deren Frequenz so hoch ist, dass sie von Menschen nicht gehört werden können, wie die New York Times berichtet. Die geheimen Attacken könnten jede Wellenform nutzen, um versteckte Audio-Abschnitte hinzuzufügen und somit einen beliebigen Satz zu übertragen.
Dabei wurden bestimmte Befehle zur Steuerung von Geräten im Haushalt in Musikstücke und Sprachaufnahmen "eingeschleust".
Folge: Die Assistenten in Smartphones und smarten Lautsprechern wie Amazons Echo, Google Home oder Apples Homepod haben selbständig Websites geöffnet und Anrufe getätigt.
Amazon sagte der "New York Times" gegenüber, Schritte zur Gewährleistung der Sicherheit wurden eingeleitet.
Related:
-
-
-
Russland verweigert Hajo Seppelt die Einreise zur Fußball-WM
Die Enthüllungen führten zum Ausschluss der russischen Leichtathleten von internationalen Wettkämpfen. Seppelt recherchiert seit vielen Jahren zu Doping im deutschen und weltweiten Spitzensport.Herrmann macht "Lügenpropaganda" für Demo-Erfolg verantwortlich - und kassiert deftigen Konter
Die Demonstration war der Höhepunkt von seit mehreren Wochen landesweit laufenden Protesten. Hamburg. 30.000 Menschen haben in Bayern gegen das geplante Polizeigesetz demonstriert.Sigmar Gabriel wird Ehrenbürger in Goslar
In der Begründung des Vorschlags heißt es, er habe seine Heimatstadt in all seinen Ämtern nie aus den Augen verloren. Gabriel wurde 1959 in Goslar geboren und lebt dort bis heute mit seiner Familie.