Von außen betrachtet ist deren Prism-Software ein umfangreiches Grafisches-User-Interface (GUI), mit dem die Analysten der NSA komplexe Abfragen und Korrelationen ausführen können. Diese laufen auf eigenen Servern ab, das heißt, die Abfragen können nur auf solche Daten angewendet werden, die zuvor in den eigenen Servern abgelegt wurden. Folglich, können die Anfragen auch ins Leere gehen.
In so einem Fall generiert das System automatisch eine Datenanforderung an alle am Prism-Programm beteiligten Unternehmen. Diese Datenanforderungen werden automatisch generiert und berufen sich rechtlich auf sehr vage formulierte weitreichende Allgemein-Anforderungen durch den General-Staatsanwalt. Die Anforderungsflut ist hoch. Jeweils 200 solcher Anforderungen gehen pro Woche bei jedem der große Provider ein, und jede Anfrage bezieht sich auf rund 400 bis 1000 User-Konten.
Bei derart immensen Datenanforderungen haben mehrere Daten-Provider das Verfahren vereinfacht und eine elektronische Zwischenablage geschaffen, in der die NSA ihre Datenwünsche ablegt und wo sie dann später die entsprechenden Daten abholen können. Einem Bericht der New York Times zufolge soll unter anderen Facebook einen solchen Datenaustausch ermöglichen. Anders ist es dagegen bei Google. Laut deren Sprecher Chris Gaither stellt Google seine Daten per sicheren FTP-Transfer der NSA zur Verfügung.
Alle gesammelten Daten werden bei der NSA in einem Mega-Rechenzentrum gespeichert, das seit geraumer Zeit zu klein geworden ist. Deshalb wird in Bluffdale, im US-Staat Utah, für 1,7 Milliarden Dollar ein neues Rechenzentrum gebaut, das im Herbst in Betrieb gehen soll. Das neue Rechenzentrum soll dann als interne Cloud sowohl die eigenen Analysten am Hauptsitz in Maryland, als auch die anderen Agenturen, wie FBI und CIA bedienen. James Bamford, Autor vieler Bücher über die NSA, glaubt, dass das neue Rechenzentrum einen Anschlusswert von 65 MW haben wird und dass es ein Yottabyte an Daten aufnehmen kann. (Ein Yotta ist eine Eins mit 24 Nullen.)
Ein echtes Big-Data-Problem also, das mit eigens entwickelten Werkzeugen angegangen wird. Hauptkomponente ist die Open-Source Software Accumulo, deren Entwicklung 2008 bei der NASA begann und die 2011 der Open-Source-Gemeinde überstellt wurde.
Accumulo basiert auf Googles BigTable-Design und ist eine NoSQL Datenbank, die auf einer seriellen Schlüssel/Wert-Struktur aufsetzt. Hierzu nutzt Accumulo die Apache-Pakete ZooKeeper, Thrift und das Hadoop Distributed File System (HDFS). Accumulo hat eine sogenannte “schemalose Datenbank-Struktur” und kann Daten in unterschiedlichen Formaten aufnehmen. Mit zusätzlichen Realtime-Analytics, kann Accumulo dann Reports über bestimmte Korrelations-Muster in nahezu Realtime generieren.
Einer der Schwerpunkte bei der Accumulo-Entwicklung war der Sicherheitsaspekt – vor allem die hierarchischen Zugriffsrechte der Anwender auf die einzelnen Datenbestände. Doch trotz aller technischer Raffinessen bei der Zugriffsverwaltung weist das System erhebliche Lücken auf. Das zeigte sich unter anderem an der Art, wie Snowden die streng geheimen PowerPoint-Folien entwenden konnte: Er kopierte sie einfach auf ein externes USB-Laufwerk.
Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…
Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…
Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…
KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.
Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.
View Comments
Ein höchst interessanter, informativer Artikel.
Leider geht er nicht auf die Informationsquellen ein, die ebendiese Dienste auf "passivem" Weg erschließen - also durch mitlesen/mithören/sniffen von Datenverkehren, insbesondere jenen, die man als "verschlüsselt" versteht, weil ja per SSL/TLS gesichert (also zB WebMail, Email, VoIP uva.). Die aktiv ermittelten (also von den Anbietern angeforderten) Daten sind ja nur die kleine Spitze eines großen Eisberges, deren Volumen nur die Dienste wohl nur unwahrscheinlich in jene Bedrängnis bringen würden, wie es hier praktisch beschrieben wird. Und das man passives Lauschen betreibe, streiten ja inzwischen nicht mal mehr die Dienste ab.
So hinterlassen deutsche Journalisten aber den Eindruck, das die Kommunikation vor derart Zugriffen sicher sei, wenn man nur der "richtigen" Anbieter wähle bzw. darüberhinaus noch nett auf das SSL "Schloß" am Browser achte. Das aber wäre vom Regen in die Traufe...