Categories: IoT

Forscher demonstrieren “unhörbare” Angriffe auf Sprachassistenten per Ultraschall

Forscher der University of Texas in San Antonio haben eine Technik entwickelt, mit der es möglich ist, Geräte mit Smartphones und intelligente Lautsprecher unbemerkt aus der Ferne zu kontrollieren. Die als Near-Ultrasound Inaudible Trojan (NUIT) bezeichnete Methode richtet sich gegen die in diesen Geräten integrierten Sprachassistenten wie Apple Siri, Google Assistant, Microsoft Cortana und Amazon Alexa, wie BleepingComputer berichtet.

Die Angriffe nutzen eine Eigenschaft der in diese Geräte eingebauten Mikrofone aus: Sie können Töne nahe der Ultraschall-Frequenzen verarbeiten, die das menschliche Ohr jedoch nicht hören kann. Den Forschern zufolge wäre es beispielsweise möglich, solche Signale in einer Website zu verstecken, die Audio oder auch ein Youtube-Video abspielt. Nutzer müssten lediglich per Social Engineering auf eine solche Seite gelockt werden.

Youtube-Videos werden zur Waffe

Dem Bericht zufolge unterscheiden die Forscher zwischen zwei verschiedenen Verfahren für NUIT-Angriffe. Bei NUIT-1 ist das angegriffene Gerät zugleich die Quelle für die unhörbaren Befehle. Ein Opfer würde beispielsweise eine Audiodatei auf seinem Smartphone abspielen, die wiederum unhörbare Befehle enthält, mit denen die Angreifer das Gerät steuern. Bei NUIT-2 wird ein smartes Gerät für die Audiowiedergabe genutzt, um ein anderes-Gerät mit aktivem Sprachassistenten zu kontrollieren.

“Wenn Sie YouTube auf Ihrem Smart-TV abspielen, hat dieser Smart-TV einen Lautsprecher, richtig? Der Ton der bösartigen NUIT-Befehle wird unhörbar, und es kann auch Ihr Handy angreifen und mit Ihrem Google Assistant oder Alexa-Geräten kommunizieren”, wird einer der Forscher in dem Bericht zitiert. “Das kann sogar in Zooms während Besprechungen passieren. Wenn jemand die Stummschaltung aufhebt, kann er das Angriffssignal einbetten, um Ihr Telefon zu hacken, das während der Besprechung neben Ihrem Computer liegt.”

Unter anderem wäre es mit einem NUIT-Angriff möglich, das smarte Schloss einer Wohnungstür zu öffnen oder eine smarte Alarmanlage abzuschalten. Es könnten aber auch Aktionen auf einem Smartphone wie das Öffnen einer speziellen Website ausgeführt werden.

Ihre Angriffsmethode testeten die Forscher mit 17 unterschiedlichen Geräten. Fast alle waren mit beliebigen Stimmen steuerbar. Einzige Ausnahme war den Forschern zufolge Apple Siri. Für Siri sei es notwendig, die Stimme des Opfers nachzuahmen.

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die Redaktionen von Silicon.de und ZDNet.de. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

7 Stunden ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

11 Stunden ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

12 Stunden ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

1 Tag ago

Rechenzentrumsnetzwerke als Schlüssel für Desaster Recovery

Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.

1 Tag ago

Cybersecurity mit KI: Strategischer Vorteil oder Sicherheitsrisiko?

Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…

2 Tagen ago