Supercomputer im Einsatz
Der offiziell leistungsstärkste Supercomputer der Welt ist der Frontier von HPE/Cray. Er steht in Tennessee und hat eine Rechenleistung von sage und schreibe 1.206.000 TeraFLOPS – also 1,2 Trillionen Gleitkommaoperationen pro Sekunde. Zum Vergleich: Der erste frei programmierbare Rechner, der Z3 von Konrad Zuse (1941), schaffte je nach Rechenoperation ca. 2 FLOPS, die Grafikeinheit der XBOX Series X (2019) schon gut 12 Billionen FLOPS (also 12 TeraFLOPS). Wofür diese gewaltigen Leistungen gebraucht werden und warum fast alle Top-Supercomputer weltweit auf das Betriebssystem Linux setzen, erfährst Du hier.
Was ist ein Supercomputer?
Supercomputer sind die Kraftpakete der digitalen Welt. Während Dein Laptop oder Desktop-PC wahrscheinlich bereits beachtliche Rechenleistungen mitbringt, sind sie für hochkomplexe Aufgaben gebaut, bei denen selbst leistungsstarke Rechner schnell an ihre Grenzen stoßen. Ein typischer Supercomputer besteht aus Hunderten bis Tausenden von Server-Racks, wobei jedes Rack etwa so groß ist wie ein großer Kühlschrank. Dabei sind sie nicht nur eindrucksvolle Maschinen, die in Rechenzentren versteckt ihr Ding machen – sie arbeiten tatsächlich daran mit, einige der größten Probleme unserer Zeit zu lösen.
Anwendungsgebiete von Supercomputern: Forschung & IT-Security
In der Medizin zum Beispiel helfen sie, extrem komplizierte Simulationen durchzuführen, um neue Medikamente schneller zu entwickeln. Besonders bei der Erforschung von Krankheiten wie Krebs oder Alzheimer sind Supercomputer im Einsatz, um potenzielle Wirkstoffe durch Millionen von Berechnungen, z. B. Simulationen molekularer Wechselwirkungen, zu testen. Ein weiteres bedeutendes Einsatzgebiet ist die Klimaforschung: Supercomputer berechnen hochkomplexe Klimamodelle, um den langfristigen Einfluss von Treibhausgasen, den Anstieg der Meeresspiegel oder den Verlauf von Extremwetterereignissen wie Hurrikans vorherzusagen.
Weitere Beispiele findest Du z. B. in der Astrophysik, in der Forschende mithilfe von Supercomputern Simulationen zur Entstehung und Entwicklung des Universums durchführen. Oder in der Genomforschung, in der Supercomputer dabei helfen, riesige Mengen an DNA-Sequenzdaten zu analysieren, um die genetischen Ursachen von Krankheiten zu identifizieren. Die Flexibilität von Open-Source-Software wie Linux ermöglicht es Forschenden weltweit, maßgeschneiderte Lösungen für ihre ganz spezifischen Projekte zu entwickeln.
Auch in der IT-Security spielen sie eine immer größere Rolle: Sie helfen dabei, komplexe Verschlüsselungen zu knacken, Malware-Muster zu erkennen und Schwachstellen in Netzwerken aufzuspüren.
Bildquelle: OLCF at ORNL: The Exascale-class HPE Cray EX Supercomputer at Oak Ridge National Laboratory
Starke Leistung: Von Tops und FLOPS
Die Rechenleistung von Supercomputern wird meistens in FLOPS, also Floating Point Operations per Second, angegeben. Das heißt, wie viele Gleitkommazahlen ein Computer pro Sekunde verarbeiten kann. Die Zahlen hier werden aber schnell so hoch, dass sich verschiedene Größeneinteilungen etabliert haben: Agiert ein moderner Laptop in der Regel so im GigaFLOPS-Bereich (also Milliarden FLOPS/s), können wir bei Supercomputern locker über TeraFLOPS (Billionen) oder sogar ExaFLOPS (Trillionen) sprechen.
Parallelverarbeitung: Wie funktioniert ein Supercomputer?
Supercomputer sind für hochkomplexe Aufgaben gebaut, bei denen selbst leistungsstarke Rechner schnell an ihre Grenzen stoßen. Der Unterschied zwischen Deinem Computer und einem Supercomputer liegt nicht nur in der reinen Rechenleistung, sondern auch in der Art, wie sie diese Leistung nutzen. Supercomputer setzen auf Parallelverarbeitung: Sie bestehen aus Tausenden, manchmal Millionen einzelner Prozessoren, die gleichzeitig an verschiedenen Teilaufgaben arbeiten. Als könntest Du ein riesiges Puzzle in Sekunden zusammensetzen, weil Du Millionen Hände gleichzeitig nutzt.
Das Betriebssystem für alle Fälle: Linux
Die leistungsstärksten Rechner der Welt brauchen natürlich auch ein Betriebssystem, das ihnen keine Grenzen setzt. Als IT-Talent kommst Du am Top-Kandidaten dafür wohl kaum vorbei: Linux!
Linux oder streng genommen GNU/Linux ist ein Open-Source-Betriebssystem, das mit dem 1991 vom finnischen Programmierer Linus Torvalds entwickelten Linux Kernel und GNU-Software funktioniert. Heute gibt es aber auch viele Systeme, die zwar das Linux-Kernel nutzen, aber keine GNU-Komponenten enthalten. Das Besondere an Linux ist, dass es nicht nur in einer Version existiert, sondern modular aufgebaut ist. So gibt es viele Distributionen – also verschiedene Versionen von Linux, die jeweils für unterschiedliche Einsatzzwecke angepasst wurden. Bekannte Distributionen sind z. B. Ubuntu, Fedora oder Debian. Jede Distribution enthält neben dem Kernel auch nützliche Tools und Software, um das System zu verwalten und zu nutzen. Linux ist überall – von Deinem Smartphone (Android basiert auf Linux!) bis zu den stärksten Supercomputern der Welt.
Die Frage, warum nahezu alle Supercomputer der Welt auf Linux laufen, lässt sich mit mindestens zwei entscheidenden Vorteilen des Betriebssystems erklären:
- Anpassbarkeit: Als Open-Source-System hat prinzipiell jeder Zugriff auf den Linux-Quellcode und kann ihn den eigenen Bedürfnissen nach anpassen. Diese Flexibilität ist in der Welt des High Performance Computing (HPC) unverzichtbar, da die Hardware und Software optimal aufeinander abgestimmt werden müssen. Für die extrem spezifischen Anforderungen ist Linux als offenes System also die perfekte Wahl.
- Skalierbarkeit: Supercomputer bestehen aus Tausenden von Knoten, die gleichzeitig Berechnungen durchführen. Linux ist in der Lage, diese gewaltige Anzahl an Rechenknoten effizient zu verwalten und die vorhandenen Ressourcen optimal zu nutzen. Darüber hinaus gibt es spezielle Linux-Distributionen, die speziell für Hochleistungsrechner konzipiert wurden, wie etwa CentOS oder das Cray Linux Environment.
Blick unter die Haube: Die Architektur von Linux in Supercomputern
Bei Supercomputern geht es also nicht allein um Rechenleistung, sondern auch um Effizienz: Die Linux-Architektur ist hier darauf ausgelegt, enorme Rechenlasten effizient zu verteilen und gleichzeitig die Datenverarbeitung zu optimieren. Ein zentrales Konzept hierbei ist das Cluster-Computing: Ein Computercluster besteht aus vielen einzelnen miteinander vernetzten Computern, die jeweils Teile einer Gesamtaufgabe parallel zu verarbeiten. Es ist also eine praktische Möglichkeit, Parallelverarbeitung physisch zu ermöglichen. Linux unterstützt das durch spezielle Werkzeuge genau für diesen HPC-Bereich. Eins davon ist SLURM, ein weit verbreitetes Tool für das Cluster-Management. SLURM sorgt dafür, dass Aufgaben automatisch auf die verfügbaren Rechenknoten aufgeteilt und entsprechend priorisiert werden. Gleichzeitig kommt ein extrem leistungsstarkes Dateisystem wie Lustre zum Einsatz: Das wurde speziell für die Verarbeitung und Verwaltung großer Datenmengen in Supercomputern entwickelt. Es ermöglicht eine effiziente Verteilung und schnellen Zugriff auf Daten über mehrere Knoten hinweg.
Aktuelle Jobs für Informatiker:innen
- Servicezentrum Landentwicklung und Agrarförderung(Junior) Wirtschaftsinformatiker*in (w/m/d) / Fachinformatiker*in (w/m/d) – Automatische Logauswertung –HannoverProjektmanagement +1
- Reiter Engineering GmbH & Co KGFachinformatiker / IT Fachkraft (m/w/d in VollzeitTraunsteinQuality Assurance +1
- Deutsches Zentrum für Luft- und Raumfahrt (DLR)Engineer electrical engineering, computer science, communications engineering or similar (f/m/x)WeßlingProjektmanagement +2
- Prym GroupIT Administrator (m/f/d)Stolberg (Rheinland)System Engineering / Admin
- Technische Werke Ludwigshafen am Rhein AGIT Supporter PC und Mobile Device Betreuung (m/w/d)Ludwigshafen am RheinSystem Engineering / Admin
Was bringt die Zukunft? Exascale Supercomputer vs. Quantencomputer
Die aktuell schnellste Stufe der Supercomputer bildet die Klasse der Exascale Supercomputer, wie eben der Frontier von HPA/Cray. Sie schaffen mindestens einen ExaFLOP pro Sekunde und können so besonders große und komplexe Aufgaben bewältigen, wie die Kombination von Simulationen, künstlicher Intelligenz (KI) und Datenanalyse.
Bildquelle: IBM - Image Gallery
Parallel dazu steht auch die Entwicklung von Quantencomputern laut Expert:innen kurz vor dem Durchbruch. Wenn Du da tiefer einsteigen möchtest, lies am besten unseren Artikel zu Quantum Computing. Es zeichnet sich ab: Wenn Quantencomputer einmal ihr volles Potenzial entfalten, können sie Supercomputern locker den Rang ablaufen. Denn wo Supercomputer eine Infrastruktur aus vielen extrem leistungsfähigen Prozessoren und GPUs zur Verarbeitung und Analyse von Daten nutzen, funktioniert das bei Quantencomputern in nur einem System. Sie sind damit effizienter, schneller und perspektivisch auch noch deutlich leistungsfähiger. Der entscheidende Vorteil von Supercomputern liegt aber auf der Hand: Sie liefern schon. Während Supercomputer schon lange wertvolle Arbeit in Wissenschaft und Forschung erbringen, gibt es für Quantencomputer noch kein konkretes Anwendungsfeld, in dem sie ihre Leistung entfalten können.
- Supercomputer funktionieren, indem sie Tausende von Prozessoren parallel einsetzen, um komplexe Berechnungen und Simulationen extrem schnell zu verarbeiten.
- Fast alle Top-Supercomputer der Welt setzen auf das Open Source Betriebssystem Linux, denn es ist flexibel, effizient und vor allem individuell anpassbar.
- Sie werden da eingesetzt, wo „normale“ Rechner an ihre Grenzen stoßen, z. B. für extrem komplexe Berechnungen in Bereichen wie Klimaforschung, Medizin, Astrophysik, IT-Sicherheit und künstlicher Intelligenz
Berufsstart
Dein Berufseinstieg in der Cyber Security bei DeloitteIT-Arbeitsmarkt
Deine IT-Karriere 2025Get in touch
job I/O – wir gehen wieder live!