In naher Zukunft wird Europa mit eIDAS 2.0 ein Framework für digitale Identitäten vorschreiben, die in einer mobilen App gespeichert werden können. Das bedeutet auch, dass sich betrügerische Handlungen an die neue Umgebung anpassen werden. Rechtliche und technische Gegenmaßnahmen müssen schnell anpassbar sein, um der Betrugsentwicklung Stand zu halten.

Eine Betrugstechnik sind Deepfakes – digitale Fälschungen von Bildmaterial und Videos. Sie stellen eine immer größere Gefahr für die Sicherheit und Integrität von Remote Identity Document Proofing (RIDP)-Prozessen, also Fernidentifizierungsverfahren, dar. Durch die verstärkte Nutzung digitaler Dienste und die Zunahme von Online-Identitätsprüfungen braucht es zusätzliche Maßnahmen, um die Sicherheit sensibler persönlicher Daten zu gewährleisten.

Entdeckung neuer Angriffsmethoden

Insbesondere drei neue Angriffsmethoden gegen RIDP-Mechanismen beschäftigen Verantwortliche für IT-Sicherheit.

Injection Attack
Bei einer ‚Injection Attack‘ wird schadhafter Code oder bösartige Daten in vertrauenswürdige Anwendungen oder Systeme eingeschleust, um die Kontrolle zu erlangen oder vertrauliche Informationen abzugreifen. Ein häufiges Beispiel sind SQL-Injektionen, bei denen schadhafter SQL-Code in Eingabefelder eingefügt wird.

Presentation Attack
Daneben greifen Cyberkriminelle verstärkt zur Angriffsmethode ‚Presentation Attack‘. Sie zielt darauf ab, biometrische Erkennungssysteme durch die Präsentation von gefälschten Mustern oder Proben zu täuschen. Beispiele sind Fotos, Masken oder synthetische Fingerabdrücke, die anstelle echter biometrischer Merkmale präsentiert werden.

Identity Document Attacks
Außerdem steht Angreifern mit ‚Identity Document Attacks‘ eine Methode zur Verfügung, bei der gefälschte oder manipulierte Ausweisdokumente wie Pässe oder Personalausweise verwendet werden, um eine falsche Identität vorzutäuschen. Dies kann durch Fälschung der Dokumente selbst oder Manipulation der darin enthaltenen Informationen erfolgen.

Gegen Identity Document Attacks haben Experten bereits eine Abwehrstrategie vorgeschlagen: Sie sprechen sich dafür aus, den Near Field Communications (NFC)-Chip eines amtlichen Ausweisdokuments während des RIDP-Prozesses zu scannen. Diese Methode wird als wirksamer Schutz vor Imitationsangriffen angesehen, und bringt im Vergleich zur optischen Verifizierung aufgrund der zunehmenden Raffinesse synthetischer Angriffe eine zusätzliche Sicherheitsebene.

Aktualisierte Tools und Techniken zur Abwehr

Die ENISA weist in ihrem Bericht „Remote ID Proofing Good Practices“ auf aktuelle Bedrohungen und die oben genannten Angriffstechniken hin. Das Ziel der Agentur ist es, die in der geplanten eIDAS 2.0-Verordnung formulierten Sicherheitsanforderungen für digitale Identitäten mit konkreten Maßnahmen zu unterlegen. Der Leitfaden konzentriert sich auf Angriffe durch Face Presentation Attacks, die Gesichtserkennungssysteme täuschen können, sowie Identity Document Attacks.

Vor diesem Hintergrund empfiehlt die ENISA aktualisierte Sicherheitsmaßnahmen für Fernidentifizierungsprozesse. Das Paper gibt Einblick in mögliche Systeme und Präventivmethoden und schafft einen wichtigen Dialog zwischen öffentlichem und privatem Sektor, darf aber nicht als alleinige Lösung zur Betrugsbekämpfung dienen.

In dem Bericht vom März 2024 analysieren Industrieexperten systematisch die neuesten Angriffsvektoren und zeigen Gegenmaßnahmen auf.

Liveness-Erkennung statt statischer Bildanalyse
Hochmoderne RIDP-Lösungen sollten eine sogenannte Liveness-Erkennung nutzen, um echte Personen von Fälschungen zu unterscheiden. Die Software erkennt Augenbewegungen, Lippenbewegungen und Gesichtsausdrücke in Echtzeit.

Analyse der Metadaten
Ziel der Maßnahme ist es, das Vorhandensein einer virtuellen Kamera oder eines Hardware-Emulators im Betriebssystem des Benutzers zu erkennen. Dazu werden verschiedene Metadaten der RIDP-Sitzung untersucht, zum Beispiel die Auflösung des Foto- oder Videostreams, GPS-Daten, Beschleunigungsmesser, Gyroskop, Zeitstempel, Netzwerkinformationen sowie Betriebssystem- und User-Agent-Fingerprinting.

KI-gestützte Echtheitsprüfung
Moderne Systeme, die Machine Learning einsetzen, erkennen selbst geringste Unstimmigkeiten in Bilddaten und können Deepfakes mit hoher Zuverlässigkeit identifizieren. Training anhand von Millionen echter und gefälschter Identitätsnachweise schult diese Systeme.

Biometrische Gesichtserkennung
Die Verarbeitung verschiedener biometrischer Gesichtsmerkmale wie 3D-Konturanalyse, Augenverfolgung und Gestik hilft dabei, echte Personen zuverlässig von Fälschungen zu unterscheiden.

Kombination aus menschlicher und künstlicher Intelligenz

Ein “One-Size-Fits-All“-Ansatz wird allerding die Herausforderungen, vor denen die Regulierungsbehörden und der Privatsektor stehen, nicht lösen. Die ENISA betont folgerichtig, dass Remote Identity Document Proofing einen mehrstufigen, KI-gestützten Sicherheitsansatz erfordert, um angesichts der stetig wachsenden Cyberrisiken mit den Bedrohungen Schritt zu halten. Unternehmen müssen in diesem sensiblen Bereich vorbeugende Sicherheitsmaßnahmen implementieren, um Sicherheitsvorfälle und aufwendiges Incident-Management wirksam zu minimieren. Nur so lassen sich die strengen Vorgaben der eIDAS 2.0 für hochsichere digitale Identitäten in der Praxis umsetzen.

Dem Zusammenspiel von Mensch und Maschine kommt eine besondere Bedeutung für künftige Bedrohungstaktiken zu: Es ist durchaus möglich, dass sich neue Arten von Angriffen auf die Umgehung von KI-Systemen anstelle von menschlicher Expertise konzentrieren werden. Der Schlüssel, um Betrügern das Leben zu erschweren und Angriffe zeitaufwendig und kostspielig zu gestalten, liegt daher in einer Kombination aus menschlicher und künstlicher Intelligenz. Bislang ist Social Engineering die am weitesten verbreitete Betrugsform, da sie einfach, schnell, skalierbar und kostengünstig ist. Im Kampf dagegen hat sich gezeigt, dass ein Hybridmodell aus KI und menschlichen Fähigkeiten die besten Ergebnisse liefert.

Ein solches hybrides Modell auf technischer Ebene kombiniert KI und menschliche Intelligenz durch Echtzeit-Abfragen und trainierte Beobachtungen. Dies bietet den bestmöglichen Schutz für Kundendaten und schafft hohe Sicherheit. Gerade täuschend echt aussehenden, manipulierten Bild-, Audio- oder Video-Deepfakes lassen sich durch die Synergie von Mensch und Maschine weitaus zuverlässiger erkennen als durch rein automatisierte Prozesse.

Fazit

Eine weitere Harmonisierung der Vorschriften für RIDP-Prozesse wird dazu beitragen, Angriffe auf die Systeme künftig besser abwehren zu können. Der ENISA-Leitfaden ist, vor allem im Hinblick auf die europäischen Verordnungen – von eIDAS 2.0 über MiCA, bis zur neuen EU-AML-Regulierung – ein unterstützenswerter Aufruf hierzu. Solche Bemühungen dienen als Blaupause für eine effektivere Regulierung. Gleichzeitig geben sie Raum für eine engere Zusammenarbeit zwischen Industrie und Politik, um sich bestmöglich gegen sich entwickelnde Angriffsszenarien zu wappnen.

Rayissa Armata

ist Director Global Regulatory & Government Affairs bei IDnow.

Roger Homrich

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

2 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

2 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

23 Stunden ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago