Categories: Data

Erdbeobachtung für alle

Die Europäische Weltraumorganisation (ESA) hat mit dem ITK-Dienstleister T-Systems und weiteren Partnern neue Services für den Copernicus Data Space in Betrieb genommen. Ab sofort kann jede*r Interessierte Dienste zur Analyse- und Trendüberwachung nutzen. Dies geschieht im Zusammenspiel mit einem der größten öffentlichen Datenräume für Erdbeobachtungsdaten.

Bereits seit Januar ist der Copernicus Data Space für registrierte Nutzer*innen zugänglich. Deren Zahl liegt den Angaben der ESA zufolge derzeit bei 30.000. Die zur Verfügung stehenden Erdbeobachtungsdaten werden nahezu in Echtzeit aktualisiert. Während bisher verschiedene Plattformen ausgewählt oder kombiniert werden mussten, gibt es ab sofort nur noch einen Data Space, der alle Services vereint. Das soll den Zugang zu den Daten und die Zusammenarbeit der Nutzer-Community erleichtern.

Open-Source-Strategie

Die neuen Data Space Services umfassen eine Reihe von Open-Source-Tools, die User je nach Expertise unterstützen. Per Sentinel Hub Browser sollen sich innerhalb von Sekunden 2D- und 3D-Bilder sowie Zeitraffervideos erzeugen lassen. Zudem sollen sich die Ergebnisse in Geoinformationssystemen (GIS) nutzen lassen.

Fortgeschrittene Anwender können den Jupyter Hub für detailliertere und sofortige Datenanalysen nutzen. Zudem soll es per openEO möglich sein, durch große und komplexe Analysen zu erstellen, um wiederkehrende Aufgaben in Organisationen oder für geschäftliche Zwecke zu vereinfachen.

Für den Fall, dass die von der Europäischen Kommission und der ESA kostenlos zur Verfügung gestellten Ressourcen aufgestockt werden müssen, bietet der Data Space die Möglichkeit, Cloud-Computing-Ressourcen und andere kommerzielle Dienste auf Abruf aus zwei europäischen öffentlichen Clouds, der CloudFerro und Open Telekom Cloud, über das Webportal CREODIAS.eu zu bestellen.

Der Ökosystem-Ansatz soll Unternehmen und Start-ups darin unterstützen, neue kommerzielle oder offene Anwendungen sowie Datenprodukte auf Grundlage des Copernicus-Portfolios unter ihrer eigenen Marke zu entwickeln und diese im Data Space zu veröffentlichen. Die Dienste sind dann sofort für die weltweite Gemeinschaft sichtbar.

55 Petabyte

T-Systems ist für die Verwaltung und Bereitstellung der riesigen Datenmengen verantwortlich. Von derzeit 55 Petabyte wird der Datenraum in den nächsten sechs Jahren auf bis zu 100 Petabyte anwachsen. Das wird einer der größten Datenräume sein, die das Unternehmen bisher in seinen Rechenzentren und denen von Partnern weltweit unterhält. Die Daten sollen nachhaltig gespeichert werden. Unter anderem will die Telekom-Tochter hierzu Strom aus erneuerbaren Quellen verwenden.

Das gesamte Projekt wurde gemeinsam mit mehreren Partnern realisiert. Dazu gehören CloudFerro, Sinergise, die Fernerkundungsspezialisten ACRI-ST, RHEA und VITO sowie das Deutsche Zentrum für Luft- und Raumfahrt DLR.

Manuel

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

4 Tagen ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

4 Tagen ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

6 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

7 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

1 Woche ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

1 Woche ago