Die Europäische Weltraumorganisation (ESA) hat mit dem ITK-Dienstleister T-Systems und weiteren Partnern neue Services für den Copernicus Data Space in Betrieb genommen. Ab sofort kann jede*r Interessierte Dienste zur Analyse- und Trendüberwachung nutzen. Dies geschieht im Zusammenspiel mit einem der größten öffentlichen Datenräume für Erdbeobachtungsdaten.
Bereits seit Januar ist der Copernicus Data Space für registrierte Nutzer*innen zugänglich. Deren Zahl liegt den Angaben der ESA zufolge derzeit bei 30.000. Die zur Verfügung stehenden Erdbeobachtungsdaten werden nahezu in Echtzeit aktualisiert. Während bisher verschiedene Plattformen ausgewählt oder kombiniert werden mussten, gibt es ab sofort nur noch einen Data Space, der alle Services vereint. Das soll den Zugang zu den Daten und die Zusammenarbeit der Nutzer-Community erleichtern.
Die neuen Data Space Services umfassen eine Reihe von Open-Source-Tools, die User je nach Expertise unterstützen. Per Sentinel Hub Browser sollen sich innerhalb von Sekunden 2D- und 3D-Bilder sowie Zeitraffervideos erzeugen lassen. Zudem sollen sich die Ergebnisse in Geoinformationssystemen (GIS) nutzen lassen.
Fortgeschrittene Anwender können den Jupyter Hub für detailliertere und sofortige Datenanalysen nutzen. Zudem soll es per openEO möglich sein, durch große und komplexe Analysen zu erstellen, um wiederkehrende Aufgaben in Organisationen oder für geschäftliche Zwecke zu vereinfachen.
Für den Fall, dass die von der Europäischen Kommission und der ESA kostenlos zur Verfügung gestellten Ressourcen aufgestockt werden müssen, bietet der Data Space die Möglichkeit, Cloud-Computing-Ressourcen und andere kommerzielle Dienste auf Abruf aus zwei europäischen öffentlichen Clouds, der CloudFerro und Open Telekom Cloud, über das Webportal CREODIAS.eu zu bestellen.
Der Ökosystem-Ansatz soll Unternehmen und Start-ups darin unterstützen, neue kommerzielle oder offene Anwendungen sowie Datenprodukte auf Grundlage des Copernicus-Portfolios unter ihrer eigenen Marke zu entwickeln und diese im Data Space zu veröffentlichen. Die Dienste sind dann sofort für die weltweite Gemeinschaft sichtbar.
T-Systems ist für die Verwaltung und Bereitstellung der riesigen Datenmengen verantwortlich. Von derzeit 55 Petabyte wird der Datenraum in den nächsten sechs Jahren auf bis zu 100 Petabyte anwachsen. Das wird einer der größten Datenräume sein, die das Unternehmen bisher in seinen Rechenzentren und denen von Partnern weltweit unterhält. Die Daten sollen nachhaltig gespeichert werden. Unter anderem will die Telekom-Tochter hierzu Strom aus erneuerbaren Quellen verwenden.
Das gesamte Projekt wurde gemeinsam mit mehreren Partnern realisiert. Dazu gehören CloudFerro, Sinergise, die Fernerkundungsspezialisten ACRI-ST, RHEA und VITO sowie das Deutsche Zentrum für Luft- und Raumfahrt DLR.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.