Categories: Data

Erdbeobachtung für alle

Die Europäische Weltraumorganisation (ESA) hat mit dem ITK-Dienstleister T-Systems und weiteren Partnern neue Services für den Copernicus Data Space in Betrieb genommen. Ab sofort kann jede*r Interessierte Dienste zur Analyse- und Trendüberwachung nutzen. Dies geschieht im Zusammenspiel mit einem der größten öffentlichen Datenräume für Erdbeobachtungsdaten.

Bereits seit Januar ist der Copernicus Data Space für registrierte Nutzer*innen zugänglich. Deren Zahl liegt den Angaben der ESA zufolge derzeit bei 30.000. Die zur Verfügung stehenden Erdbeobachtungsdaten werden nahezu in Echtzeit aktualisiert. Während bisher verschiedene Plattformen ausgewählt oder kombiniert werden mussten, gibt es ab sofort nur noch einen Data Space, der alle Services vereint. Das soll den Zugang zu den Daten und die Zusammenarbeit der Nutzer-Community erleichtern.

Open-Source-Strategie

Die neuen Data Space Services umfassen eine Reihe von Open-Source-Tools, die User je nach Expertise unterstützen. Per Sentinel Hub Browser sollen sich innerhalb von Sekunden 2D- und 3D-Bilder sowie Zeitraffervideos erzeugen lassen. Zudem sollen sich die Ergebnisse in Geoinformationssystemen (GIS) nutzen lassen.

Fortgeschrittene Anwender können den Jupyter Hub für detailliertere und sofortige Datenanalysen nutzen. Zudem soll es per openEO möglich sein, durch große und komplexe Analysen zu erstellen, um wiederkehrende Aufgaben in Organisationen oder für geschäftliche Zwecke zu vereinfachen.

Für den Fall, dass die von der Europäischen Kommission und der ESA kostenlos zur Verfügung gestellten Ressourcen aufgestockt werden müssen, bietet der Data Space die Möglichkeit, Cloud-Computing-Ressourcen und andere kommerzielle Dienste auf Abruf aus zwei europäischen öffentlichen Clouds, der CloudFerro und Open Telekom Cloud, über das Webportal CREODIAS.eu zu bestellen.

Der Ökosystem-Ansatz soll Unternehmen und Start-ups darin unterstützen, neue kommerzielle oder offene Anwendungen sowie Datenprodukte auf Grundlage des Copernicus-Portfolios unter ihrer eigenen Marke zu entwickeln und diese im Data Space zu veröffentlichen. Die Dienste sind dann sofort für die weltweite Gemeinschaft sichtbar.

55 Petabyte

T-Systems ist für die Verwaltung und Bereitstellung der riesigen Datenmengen verantwortlich. Von derzeit 55 Petabyte wird der Datenraum in den nächsten sechs Jahren auf bis zu 100 Petabyte anwachsen. Das wird einer der größten Datenräume sein, die das Unternehmen bisher in seinen Rechenzentren und denen von Partnern weltweit unterhält. Die Daten sollen nachhaltig gespeichert werden. Unter anderem will die Telekom-Tochter hierzu Strom aus erneuerbaren Quellen verwenden.

Das gesamte Projekt wurde gemeinsam mit mehreren Partnern realisiert. Dazu gehören CloudFerro, Sinergise, die Fernerkundungsspezialisten ACRI-ST, RHEA und VITO sowie das Deutsche Zentrum für Luft- und Raumfahrt DLR.

Manuel

Recent Posts

KI als Waffe

Politik, Wirtschaft und Privatpersonen müssen gemeinsam handeln, um Schutzmechanismen zu entwickeln – ohne das innovative…

2 Tagen ago

Cybersecurity Workforce Research Report: Cybersecurity wird zum Teamsport

Geringere Nachfrage nach Cybersicherheitsfachleuten und Fokussierung auf technische als auch organisatorische Fähigkeiten liegen angesichts der…

2 Tagen ago

Cybersicherheit in der Supply Chain: Vertrauen ist gut, Kontrolle ist Pflicht

Die Abhängigkeit von Drittanbietern erhöht das Risiko erheblich, denn jede Station in der Lieferkette kann…

2 Tagen ago

KI in jeder siebten Arztpraxis

Laut einer Studie von Bitkom und Hartmannbund haben 15 Prozent der hiesigen Praxen mindestens eine…

3 Tagen ago

Digitales Ökosystem soll Rohstoffverbrauch senken

Fraunhofer-Forschende wollen die Wertschöpfungskette von Rohstoffen transparenter machen. Ziel ist eine bessere Kreislaufwirtschaft.

3 Tagen ago

Öffentliche Hand forciert Cloud-Transformation

Lünendonk-Studie: 54 Prozent der befragten Verwaltungen wollen den Cloud-Anteil ihrer Anwendungen bis 2028 auf 40…

4 Tagen ago