Forschungs-und Entwicklungs-Lab

»High Performance Computing und Big Data«

Beim Hoch- und Höchstleistungsrechnen – High Performance Computing (HPC) - geht es um rechenintensive Simulationen oder Datenanalysen. Im (außer)universitären bzw. industriellen Forschungsumfeld dienen HPC-Systeme vor allem zur Entwicklung neuer und Verbesserung vorhandener Produkte oder helfen Produktionsprozesse zu optimieren.

 

Big Data als Herausforderung

Mittlerweile hat HPC sein ursprüngliches Anwendungsspektrum um Big Data erweitert. Der Begriff steht für den intelligenten Umgang mit großen, heterogenen Datenmengen und gilt als eine der bedeutenden Herausforderungen der Zeit. Denn die Verarbeitung riesiger Daten erfordert hohe Rechenleistung. Deswegen kommen auch hier zunehmend HPC-Systeme zum Einsatz.

 

Fokus des FuE-Labs:

Aufbauend auf den am Standort vorhandenen exzellenten Basistechnologien befasst sich das Lab in unterschiedlichen Projekten mit neuen, strategisch wichtigen Technologiefeldern in Verbindung mit Big Data und HPC. Dies betrifft vor allem das Datenmanagement, Rechnerarchitekturen, Deep Analytics, Privacy und Security sowie Fragen der Visualisierung und der Nutzerschnittstellen.

Das FuE-Lab »High Performance Computing und Big Data« gliedert sich in fünf Projekte mit verschiedenen Schwerpunkten:

  • Projekt 1: »Performance, Skalierbarkeit und Autoparallelisierung von Simulationsanwendungen«
  • Projekt 2: »Datenmanagement und Datensicherheit in Big-Data-Umgebungen«
  • Projekt 3: »Systemarchitekturen und Systemsoftware«
  • Projekt 4: »Deep Analytics und interaktive Visualisierung großer Daten«
  • Projekt 5: »Energieeffizienz«

Projekt »Performance, Skalierbarkeit und Autoparallelisierung von Simulationsanwendungen«

Die Hochleistungsrechner der Zukunft bestehen aus Millionen von Prozessoren. Im Bereich der seismischen Datenanalyse besteht zunehmend der Bedarf, größere Strukturen mit immer mehr Details numerisch zu simulieren und in kürzester Zeit zu visualisieren. Dies führte zur Entwicklung des Programmiersmodells Global Adress Space Programming Interface (GPI) und des Software Ecosystems GPI-Space, das die parallele Architektur von Hochleistungsrechnern maximal effizient nutzt. GPI übernimmt die Kommunikation zwischen den Prozessoren. Dabei basiert die Open Source-Software auf einem völlig neuen Denkansatz: Der Paradigmenwechsel zur Entfaltung der vollen Leistungsfähigkeit von Supercomputern basiert auf einem asynchronen Kommunikationsmodell. Jeder Prozessor kann wahlfrei direkt auf alle Daten zugreifen.

 

Ziel:

Um den Einsatzbereich von GPI und GPI-Space auszudehnen, werden im Projekt die Methoden zum Datenaustausch und zur Autoparallelisierung in Simulationen auf neue Anwendungsfelder übertragen.

Projekt »Datenmanagement und Datensicherheit in Big-Data-Umgebungen«

Lassen sich heute noch drei separate Systemklassen charakterisieren – Informationssysteme, eingebettete Systeme und mobile Apps – so entwickeln sie sich künftig weiter und bilden Systemverbünde. In diese sogenannten »Smart Ecosystems« können jederzeit Systeme integriert und wieder herausgelöst werden. Da große Datenmengen sowohl innerhalb der Teilsysteme erzeugt als auch zwischen diesen Systemen ausgetauscht werden, ergeben sich ganz neue Herausforderungen hinsichtlich des Einsatzes von Big-Data-Technologien.

 

Ziel:

Das Projekt entwickelt Softwarekomponenten zu Datenhaltung, Datenmanagement und Datensicherheit, um effektive und effiziente Big-Data-Analysen im Kontext von Smart Ecosystems zu realisieren.

Projekt »Systemarchitekturen und Systemsoftware«

Da es immer schwieriger wird, für Big Data-Anwendungen leistungsstärkere, homogene HPC-Systeme allein auf Basis vorhandener Technologie zu bauen, findet aktuell eine Entwicklung zu heterogenen Hochleistungsrechnern und komplett neuen Chiparchitekturen statt.

 

Ziel:

  1. In diesem Projekt geht es im ersten Schritt darum, für diverse Anwendungen möglichst flexible und kostengünstige Systemarchitekturen zu erstellen.Grundlage sind im HPC-Umfeld etablierte Techniken für den parallelen Datenaustausch und den gemeinsamen Zugriff auf Datenspeicher in homogenen HPC-Systemen, wie z.B. GPI, GPI-Space und das parallele Dateisystem BeeGFS.
  2. Im zweiten Schritt entwickeln die Forscher eine einheitliche Systemsoftware, die Virtualisierung, Cloud und Big Data APIs sowie HPC-Technologien zusammenbringt. Dabei streben sie einen neuen Standard an, der die Entwicklung der nächsten Generation von HPC-Systemen – Exascale-Rechnern – ermöglicht.

Projekt »Deep Analytics und interaktive Visualisierung großer Daten«

Deep Analytics steht für die Datensammlung und -analyse riesiger – u.a. auch multimedialer und dynamischer – Datenmengen. Hochleistungsrechner verarbeiten diese Daten mittels anwendungsspezifischer Algorithmen. Deren Entwicklung ist eine der Hauptaufgaben des Projekts.

 

Ziel:

Das Projekt wird vorhandene Methoden zur Visualisierung großer Daten projektspezifisch anpassen und implementieren, um Rechenergebnisse von Big Data-Anwendungen oder komplexen numerischen Simulationen darstellen zu können.

Projekt »Energieeffizienz«

Die von HPC-Systemen verbrauchte Energie steigt stetig. Energiekosten sind deshalb eines der Kernthemen beim Auf- und Ausbau von Rechenzentren. Ursache des Energieverbrauchs sind einerseits die Komponenten in den Rechenzentren, aber auch die darin laufenden Anwendungen selbst. Der effiziente Umgang mit Energie ist eines der großen Themen sowohl im Big Data- als auch im HPC-Umfeld.

 

Ziel:

In diesem Projekt sollen Effizienz-Kennwerte ermittelt und Bewertungsschemata entwickelt werden – vom Verbrauch auf Prozessorebene über die Rechen- und Klimatisierungskomponenten in den Serverräumen bis hin zum Energieverbrauch der Anwendungen selbst.