Draco – benannt nach einem der sieben Wunder von Jena – ist ein Hochleistungsrechner, der allen Forschenden der Friedrich-Schiller-Universit?t Jena sowie anderer thüringischer Hochschulen zur Verfügung steht. Zus?tzlich ist eine Nutzung für Lehrveranstaltungen m?glich.
Der HPC-Cluster kann zur Durchführung rechenintensiver Simulationen in der wissenschaftlichen Forschung oder zur massiv-parallelen Verarbeitung und Analyse gro?er Datens?tze genutzt werden. Zudem k?nnen Teile des Systems auch interaktiv genutzt werden. Mit seinen verteilten Rechenkapazit?ten stellt Draco die Rechenressourcen bereit, um komplexe Berechnungen und Aufgaben mit hohem Durchsatz wie Data Mining oder Datenanalyse von mehreren Nutzern gleichzeitig ausführen zu lassen. Darüber hinaus erm?glicht die GPU-Partition von Draco die Durchführung von Aufgaben wie maschinelles Lernen oder Deep Learning.
Steckbrief
Rechenknoten des HPC-Cluster Draco
Foto: Andre Sternbeck (Universit?t Jena)Draco wurde im Juni 2021 in Betrieb genommen und seitdem j?hrlich erweitert. Aktuell umfasst das System folgende Komponenten:
Rechenknoten
Draco besitzt insgesamt 131 Rechenknoten mit
- 108 Standard-Rechenknoten mit meist 48 Rechenkernen und 256 GB Arbeitsspeicher pro Knoten,?
- 5 HighMem-Rechenknoten mit extra gro?em Arbeitsspeicher von 2,3 bis 4 TB pro Knoten und
- 17 GPU-Rechenknoten mit zus?tzlichen GPUs (Rechenbeschleuniger) vom Typ NVIDIA V100, A100 und H100.
Speichersysteme
Draco stellt verschiedene Speichersysteme für verschiedene Anwendungsprofile zur Verfügung:
- Performantes paralleles Dateissystem mit einer Kapazit?t von 520 TB.
- Hochperformantes All-Flash VASTDATA-Dateissystem mit einer Kapazit?t von 500 TB.
- Fünf NFS-Speichersysteme für die langfristige Ablage von gro?en Datenmengen durch Arbeitsgruppen
Netzwerk
Alle Rechenknoten und Speichersysteme sind durch ein latenzarmes Infiniband-Netzwerk mit einer Bandbreite von 100 bzw. 200 Gbps (HDR, HDR100) verbunden. Das Netzwerk besitzt eine Spine-Leaf-Topologie mit einem Blocking-Faktor von 2:1.
Sonstiges
- Auf dem Cluster ist das Betriebssystem AlmaLinux 8 installiert.?
- Slurm kommt als Workloadmanager für die Verteilung der Rechenaufgaben auf den Cluster zum Einsatz.
- Zus?tzliche Remote-Workstations für interaktive Anwendungen mit grafischer Oberfl?che (Matlab, Mathematica, Lumerical, ...).
Hinweis: Ein Teil der Rechenknoten und Speichersysteme steht nur einzelnen Benutzergruppen zur Verfügung. Entsprechende Erweiterungen durch andere Forschungsgruppen oder tempor?re Reservierungen von Ressourcen sind m?glich.