Categories: ForschungInnovation

HPE und das DZNE kooperieren bei der Demenzforschung

Demenz gehört zu den großen Problemen des Gesundheitsbereichs nicht nur in Deutschland. Viele Familien kennen aus eigener Erfahrung die Probleme, die entstehen, wenn ein meist älteres Familienmitglied schleichend vergesslich wird, den Weg nach Hause nicht mehr findet oder Freunde und Verwandte nicht mehr erkennt. Eine Demenzerkrankung bedeutet eine immense Last für die Betroffenen, ihre Familien, aber auch die öffentlichen Haushalte. Demenzpatienten zu versorgen und zu pflegen, verursacht je nach Fall Kosten zwischen 29.000 und 68.000 Euro pro Patient und Jahr. Allein die Kosten für die professionelle Versorgung von Menschen mit Demenz werden für Deutschland im Jahr 2008 auf 10 Milliarden Euro beziffert. Die gesellschaftlichen Gesamtkosten sind weitaus höher.

Am DZNE-Standort Bonn baut HPE einen Superdome Flex mit Memory-Driven Computing Architecture auf (Bild: HPE).

Und das Problem wird sich noch vergrößern: Der Altersdurchschnitt der deutschen Bevölkerung liegt aktuell bei etwa 44 Jahren. 2030 wird es in Deutschland nach Prognosen des Bundesamtes für Statistik schon mehr als 6 Millionen Menschen über 80 Jahren geben. Das Demenzrisiko steigt mit dem Alter an. Ende 2016 gab es 1,6 Millionen Demenzpatienten, 2050 könnten es drei Millionen sein.

Dazu kommt: Während die Bedeutung anderer Erkrankungen als Todesursache derzeit abnimmt, ist bei Demenz das Gegenteil der Fall. Demenz als Todesursache hat zwischen 2000 und 2008 um mehr als 60 Prozent zugenommen. Todesanfälle wegen Schlaganfall beispielsweise haben sich dagegen um 20 Prozent verringert. Neben humanitären ist es auch aus sozialen und wirtschaftlichen Gründen dringend erforderlich und sinnvoll, die Forschung zu intensivieren, um bessere Wege zur Behandlung und Vorbeugung von Demenzerkrankungen zu finden. Denn leider ist Demenz heute noch nicht heilbar. Allenfalls kann ihr Verlauf gebremst und können ihre Folgen gelindert werden.

IT als wirksames Tool der Demenzforschung

IT-Technologie kann viel dazu beitragen, neue Erkenntnisse in der Demenzforschung zu erarbeiten. In der Entwicklung befindliche medizinische Methoden zielen darauf, die Medizin stärker auf den einzelnen Patienten zuzuschneiden. Sie basieren auf einer individualisierten Diagnose, oft auf Grundlage einer Analyse des Genoms und aller anderen Daten, die zu einem Krankheitsfall verfügbar sind. Kann man die individuellen Daten zu den unterschiedlichsten Aspekten einer Erkrankung mit den Daten vergleichen, die bei der Behandlung anderer Patienten gewonnen wurden, ergeben sich möglicherweise neue Möglichkeiten. Dazu allerdings braucht man sehr leistungsfähige Möglichkeiten der Datenverarbeitung.

Deshalb kooperiert das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE) mit Hewlett Packard Enterprise (HPE). Das DZNE, das zur Helmholtz-Gemeinschaft gehört, ist einer der wichtigsten Forschungsträger auf dem Gebiet der Demenzforschung. Seinem Forschungsverbund mit zehn Standorten in Deutschland gehören mehr als 80 Forschergruppen an. Die Einrichtung hatte 2018 rund 1100 Mitarbeiter, die aus mehr als 50 verschiedenen Ländern kommen.

HPE entwickelt seit einigen Jahren im Architekturprojekt „The Machine“ eine grundlegend neue Rechnerarchitektur für das Datenzeitalter, die den Arbeitsspeicher statt die Rechnereinheiten ins Zentrum rückt und die genau zum Bedarf des DZNE passt. Systeme, die nach den Prinzipien des Memory Driven Computing gebaut sind, beseitigen die Engpässe beim Zugriff auf den Arbeitsspeicher. Sie sind hochskalierbar und eignen sich für die unterschiedlichsten Anwendungen, insbesondere auch für maschinelles Lernen, KI-Algorithmen oder neuronale Netze. Außerdem senken sie den Energieverbrauch und damit die Kosten sowie die Umweltauswirkungen der IT.

Deshalb installierte HPE am DZNE-Standort Bonn im Frühjahr für diese und ähnliche Aufgaben den neuartigen Hochleistungsrechner HPE Superdome Flex, der nach den Prinzipien des Memory-Driven Computing entwickelt wurde. Der Prototyp dieser neuen Architektur mit 160 TByte Arbeitsspeicher arbeitet bereits in Fort Collins, USA.

Ein integrierter Datenpool für das DZNE

Zu den wichtigsten Themen der Forschung rund um die Demenz am DZNE gehört derzeit die molekulare Signalisierung, Mechanismen der Krankheitsentstehung und der Aufbau von Modellsystemen. Dazu kommen die klinische und Gesundheitsforschung sowie Bevölkerungsstudien und Genetik. Jedes dieser Themen erzeugt und erfordert immense Datenmassen, um die Forschung voranzubringen.

„Am besten ist es, wenn alle Daten gleichzeitig in einem riesigen Speicher liegen“, erklärt Prof. Dr. med. Joachim D. Schultze, der am DZNE eine Forschungsgruppe zur Genetik leitet. Genau das ermöglicht die speicherzentrierte Architektur des HPE Superdome Flex. Ziel ist, Schritt für Schritt alle zu einer Erkrankung verfügbaren Datenquellen im zentralen Speicher zu integrieren, statt sie wie bisher auf unterschiedlichen internen oder externen Speichermedien zu lagern, die jeweils eigene Zugriffsmechanismen und Verbindungstechnologien benötigen sowie unterschiedlich schnell arbeiten.

Zum umfassenden Informationspool gehören Daten zum Genom, zu Genen, die den Zusammenbau von Eiweißen anstoßen, und zur Epigenomik, also den Bedingungen, unter denen Gene aktiv werden. Hinzu kommt das Mikrobiom, das sind die mit dem Menschen zusammenlebenden Lebewesen, etwa Darmbakterien, und ihr Zusammenwirken im Gesamtorganismus (Metabiom). Auch Daten zum Stoffwechsel, die Untersuchungsergebnisse bildgebender Verfahren, klinische Informationen zu jedem Patienten und schließlich epidemische Daten müssen analysiert werden. Die biomedizinische Forschung steuert Daten aus Untersuchungen zur Identifikation neuer Zielmoleküle für Medikamente, zu molekularen Mechanismen von Erkrankungen oder zur feineren Differenzierung der Diagnose bei. Aus dem klinischen Bereich stammen weitere Daten zu Diagnosen, erfolgten Behandlungen und deren Ergebnissen. All diese Daten stehen dann den DZNE-Forschern in einem integrierten Wissensnetzwerk zur Verfügung und können für Analysen aller Art verwendet werden. Gleichzeitig erweitern neue Erkenntnisse dann wiederum den Datenbestand.

Ziel ist, die Patienten nicht mehr nur nach ihrem Erscheinungsbild oder klinischen Beobachtungen beurteilen zu müssen, sondern zu den molekularen Ursachen von Demenzerkrankungen vorzudringen und dann das Wissen aus allen Bereichen zu kombinieren. Das könnte zu individuelleren Behandlungsmethoden führen und letztlich die gesamte Therapie und ihre Ergebnisse verbessern. Denkbar sind etwa individualisierte Medikamente für einzelne Gruppen Demenzerkrankter mit spezifischen molekularbiologischen Merkmalen. Sinnvoll wäre es auch, mehr und andere Vorbeugungsmaßnahmen zu entwickeln und zu kommunizieren. Dabei böte sich die Chance, erkennbare individuelle Risikofaktoren in ihrer Wirkung zu verringern oder auszuschalten.

Beim Memory-Driven Computing bildet der durch eine Lichtwellenleiter-Matrix mit allen anderen Systemkomponenten vernetzte Speicher das Zentrum des Systems, das nahezu uferlos skalierbar ist (Bild: HPE)

Memory Driven Computing macht Schluss mit Speicherengpässen

Die unglaublichen Dimensionen des dabei entstehenden Speicherbedarfs zeigt ein Beispiel: Zur Arbeit mit den Daten eines einzigen Genoms braucht man bis zu 500 GByte temporären Speicher und rund 100 GByte Langzeitspeicher. Gleichzeitig nehmen die Zahl der analysierten menschlichen Genome und die Leistungsfähigkeit der Sequenziergeräte kontinuierlich zu, was den Datenberg noch weiter erhöht.

Die speicherorientierte Architektur des Memory-Driven Computing umgibt den zentralen Speicher mit den peripheren Rechenkomponenten – von x86-Prozessoren über Signal- und grafische Verarbeitungseinheiten, spezifischen Akzeleratoren bis hin zu speziellen Prozessorarchitekturen, Asics oder reprogrammierbaren Logikbausteinen.

Vernetzt wird das gesamte System durch eine neue, auf die speicherzentrierte Rechnerarchitektur hin konzipierte Verbindungsarchitektur. Die Vernetzung der Rechenkomponenten erfolgt auf der Basis von Gen-Z über eine glasfaserbasierende Fabric. Gen-Z unterstützt sowohl direkte Verbindungen als auch eine Matrix aus sich an Knotenpunkten überkreuzenden superschnellen Glasfaserverbindungen, an die sämtliche Elemente der Rechnerarchitektur angeschlossen sind. Beliebige Mengen Speicher lassen sich mit anderen Komponenten softwarebasiert zu der jeweils gewünschten logischen Einheit zusammenschalten, ohne die Infrastruktur physisch zu verändern. So bekommt jede Workload während ihrer Laufzeit ausreichend Rechenpower und Speicher, wobei die Recheneinheiten nicht mit anderen Workloads um den Speicherzugriff konkurrieren wie bei anderen Architekturen. Vielmehr kann die jeweilige Workload den zugewiesenen Speicher exklusiv nutzen, so lange dies nötig ist. Wird er nicht mehr gebraucht, geht er sofort in den allgemeinen Speicherpool zurück und steht für andere Anwendungen zur Verfügung. Allein das führt zu einer immensen Beschleunigung – vergeuden doch in vielen leistungsfähigen Multicore-Systemen die Rechenkerne einen großen Teil ihrer Zeit damit, den Speicherzugriff zu organisieren.

Die jeweils gewünschten logischen Systeme werden je nach den Anforderungen aus den Komponenten des vorhandenen physischen Systems zusammengesetzt. Dabei können über Gen-Z Hunderte von Racks so zusammengeschaltet werden, damit sie sich wie ein einziger Server verhalten, der auf einen gigantischen Speicher zugreift. Dieser Speicher eines einzelnen Systems kann bis zu 4096 Yottabytes, das sind 4096 * 1024 Bytes, groß sein – was dem 250.000-fachen des heute weltweit existierenden Datenvolumens entspricht.

Dieser Ansatz vermeidet Über- oder Unterprovisionierung und damit die Verschwendung von Ressourcen. Gleichzeitig bietet Gen-Z so schnelle und breitbandige Verbindungen zwischen den einzelnen Systemkomponenten, dass durch die Vernetzung kein Flaschenhals mehr entsteht. So werden räumliche Distanzen unerheblich. Traditionelle metallbasierte Vernetzungstechnik führt dagegen verglichen mit den Leistungen photonischer Verbindungssysteme zu erheblichen Verzögerungen.

Die Verarbeitung von Genomdaten wird durch Memory Driven Computing auf das 101-fache beschleunigt (bild: HPE).

101mal schneller bei geringem Energieverbrauch

Seine Leistung erbringt das System mit einem weitaus geringeren Energieverbrauch als bisherige Systeme. Bei der Anpassung der Algorithmen beim DZNE konnte die benötigte Rechenleistung und damit der Energiebedarf um 70 Prozent reduziert werden. Das ist bedeutend, denn der hohe Energieverbrauch ist eines der größten Probleme der Hochleistungs- oder Cloud-Rechenzentren. So zeigen Daten aus dem Jahr 2015, dass nach dem Global Energy Statistical Yearbook 2015 das Cloud-Computing bereits 901 Megatonnen Energieäquivalente verbrauchte und damit etwas mehr als der gesamte Staat Indien. Daran etwas zu ändern, ist ein wichtiges Ziel neuer Rechnerarchitekturen.

Das Konzept des Memory Driven Computing, wie es HPE Superdome Flex realisiert, ersetzt energiezehrende mechanisch arbeitende Speichermedien mit rotierenden Festplatten durch persistente Speichermedien mit hoher Dichte und Kapazität, aber geringem Energieverbrauch. Die verschachtelten Systemhierarchien mit unterschiedlichen Ebenen und Protokollwelten werden extrem verschlankt, was sich direkt als geringerer Stromverbrauch auswirkt, denn jede Ebene verursacht Verarbeitungsschritte, für die Energie nötig ist.

Die Energiesparsamkeit des Memory Driven Computing kommt unter anderem durch den Wegfall vieler Systemebenen zustande, die sich in klassischen Architekturen zwischen den Datenspeicher und die Verarbeitung schieben (Bild: HPE).

Zudem sind die unterschiedlichen Schichten klassischer Speicherarchitekturen wegen der vielen Verarbeitungsschritte fehleranfällig und verlustaffin, was aufwändige Absicherungsarchitekturen nötig macht. Auch hier erleichtert der HPE Superdome Flex seinen Nutzern das Leben, da Datensicherungen über die Gen-Z-Matrix im Nu möglich sind.

Die Arbeit des DZNE profitiert durch das neue System unmittelbar: Anspruchsvolle Computing-Aufgaben wie die Genom-Sequenzierung müssen nicht mehr an eines der Hochleistungs-Rechenzentren ausgelagert werden, sondern lassen sich vor Ort abwickeln. Die aufwändige Datensicherung wird stark vereinfacht. Daten aus unterschiedlichen Feldern lassen sich miteinander kombinieren und auf völlig neue Weise gemeinsam auswerten, um zu neuen Erkenntnissen zu gelangen. Die dazu nötigen Algorithmen können auf die Daten an ihrem Speicherort zugreifen, statt das Datenmaterial unter Zeitverlusten und mit Sicherheitsrisiken dorthin zu übertragen, wo der entsprechende KI-Algorithmus betrieben wird.

Ein Beispiel zeigt, wie sich die Geschwindigkeit des HPE Superdome Flex in der praktischen Arbeit auswirkt: Eine klassische Computing-Architektur braucht zur Analyse einer RNA-Sequenz mit rund 140 Millionen Lesevorgängen rund 22 Minuten. Das Vorläufersystem der aktuellen Architektur, HPE Superdome X, reduzierte diese Zeit bereits auf fünf Minuten. Die Nutzung der speicherzentrierten Architektur des Memory-Driven Computing minimiert die Verarbeitungszeit für dieselbe Aufgabe auf nur noch 13 Sekunden und erhöht die analytische Verarbeitungsgeschwindigkeit um mehr als das 100fache.

Damit steigen die Chancen für die Entwicklung neuer, sinnvoller Therapien gegen Demenz. Forscher können sich darauf konzentrieren, neue Therapiekonzepte zu entwickeln statt auf Daten und Analysen aus dem Rechner zu warten. Für Patienten und ihre Familien bedeutet das neue Aussichten auf Heilung oder zumindest Linderung des Altersleidens Demenz.

Redaktion

Recent Posts

Pentesting: Vom Luxus zum Standard

Automatisierung macht Pentesting auch für kleinere Unternehmen erschwinglich, sagt Mareen Dose von indevis.

11 Stunden ago

Must-haves einer Sicherheitsstrategie: Deep Observability und Zero Trust

Die Sicherheitslandschaft ist alles andere als robust. Unter anderem weil die Sichtbarkeit noch immer kritische…

1 Tag ago

Open Source: Der gläserne Code als Schutzschild?

Auch der Einsatz von Open Source Software bringt Herausforderungen mit sich, insbesondere in der IT-Sicherheit,…

2 Tagen ago

Zukunftssichere Datensicherung als Treiber der intelligenten Wirtschaft

Studie von Huawei und Roland Berger beleuchtet Schlüsseltrends und neue Anforderungen an Datenspeicherlösungen im KI-Zeitalter.

2 Tagen ago

Den Milliarden-Dollar-Bug vermeiden

Der Ausfall bei CrowdStrike ist nur ein Symptom eines größeren Problems, wenn Unternehmen es versäumen,…

2 Tagen ago

Nachhaltigeres Wirtschaftswachstum durch Daten und KI?

PwC-Studie zeigt: KI hilft vielen Unternehmen dabei, die Effizienz zu steigern, Kosten zu senken und…

2 Tagen ago