Forscher der University of Texas in San Antonio haben eine Technik entwickelt, mit der es möglich ist, Geräte mit Smartphones und intelligente Lautsprecher unbemerkt aus der Ferne zu kontrollieren. Die als Near-Ultrasound Inaudible Trojan (NUIT) bezeichnete Methode richtet sich gegen die in diesen Geräten integrierten Sprachassistenten wie Apple Siri, Google Assistant, Microsoft Cortana und Amazon Alexa, wie BleepingComputer berichtet.
Die Angriffe nutzen eine Eigenschaft der in diese Geräte eingebauten Mikrofone aus: Sie können Töne nahe der Ultraschall-Frequenzen verarbeiten, die das menschliche Ohr jedoch nicht hören kann. Den Forschern zufolge wäre es beispielsweise möglich, solche Signale in einer Website zu verstecken, die Audio oder auch ein Youtube-Video abspielt. Nutzer müssten lediglich per Social Engineering auf eine solche Seite gelockt werden.
Dem Bericht zufolge unterscheiden die Forscher zwischen zwei verschiedenen Verfahren für NUIT-Angriffe. Bei NUIT-1 ist das angegriffene Gerät zugleich die Quelle für die unhörbaren Befehle. Ein Opfer würde beispielsweise eine Audiodatei auf seinem Smartphone abspielen, die wiederum unhörbare Befehle enthält, mit denen die Angreifer das Gerät steuern. Bei NUIT-2 wird ein smartes Gerät für die Audiowiedergabe genutzt, um ein anderes-Gerät mit aktivem Sprachassistenten zu kontrollieren.
“Wenn Sie YouTube auf Ihrem Smart-TV abspielen, hat dieser Smart-TV einen Lautsprecher, richtig? Der Ton der bösartigen NUIT-Befehle wird unhörbar, und es kann auch Ihr Handy angreifen und mit Ihrem Google Assistant oder Alexa-Geräten kommunizieren”, wird einer der Forscher in dem Bericht zitiert. “Das kann sogar in Zooms während Besprechungen passieren. Wenn jemand die Stummschaltung aufhebt, kann er das Angriffssignal einbetten, um Ihr Telefon zu hacken, das während der Besprechung neben Ihrem Computer liegt.”
Unter anderem wäre es mit einem NUIT-Angriff möglich, das smarte Schloss einer Wohnungstür zu öffnen oder eine smarte Alarmanlage abzuschalten. Es könnten aber auch Aktionen auf einem Smartphone wie das Öffnen einer speziellen Website ausgeführt werden.
Ihre Angriffsmethode testeten die Forscher mit 17 unterschiedlichen Geräten. Fast alle waren mit beliebigen Stimmen steuerbar. Einzige Ausnahme war den Forschern zufolge Apple Siri. Für Siri sei es notwendig, die Stimme des Opfers nachzuahmen.
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…
Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.
Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…