High-Performance Computing mit Red Hat

Unternehmen setzen zunehmend auf High-Performance Computing (HPC), um ihre drängendsten Probleme durch datengestützte Entscheidungen zu lösen. Der Wunsch, KI in großem Umfang einzusetzen, stellt dabei neue Anforderungen an bestehende HPC-Architekturen. Aufgrund dieser neuen Workloads müssen die Funktionen von HPC ausgeweitet und von Bare Metal-Deployments auf Hybrid Cloud-Anwendungsplattformen verlagert werden.

Daher können diese HPC-Lösungen jetzt lokal, am Edge und sogar in der Cloud bereitgestellt werden.

Darstellung mehrerer Plattformen
Jump to section

Was ist High-Performance Computing?

High-Performance Computing (HPC) bezieht sich auf die Verarbeitung von Daten mit komplexen Berechnungen mit einer hohen Geschwindigkeit auf mehreren Servern gleichzeitig. Diese Servergruppen werden auch als Cluster bezeichnet und bestehen aus Hunderten oder sogar Tausenden von Computing-Servern, die über ein Netzwerk verbunden sind.

High-Performance Computing (HPC) mit Red Hat

High-Performance Computing – Use Cases

Die Use Cases für High-Performance Computing haben sich in vielen Branchen ausgeweitet und umfassen jetzt zudem den Bereich KI/ML. Und dennoch hat sich an der HPC-Architektur bis vor Kurzem nur wenig geändert. Durch die Orchestrierung von Containern in Hybrid Cloud-Umgebungen lassen sich diese erweiterten Use Cases jetzt mithilfe von neuen Architekturen angehen. Der Ansatz von Red Hat zu High-Performance Computing konzentriert sich auf 3 Kategorien: 

Linux® ist laut der TOP500-Liste der leistungsfähigsten Computersysteme weltweit das vorherrschende Betriebssystem für High-Performance Computing. Auf diesen TOP500-Supercomputern läuft Linux – und von den Supercomputern an der Spitze der Liste führen viele zudem Red Hat® Enterprise Linux aus.

Red Hat Enterprise Linux ist ein beliebtes Betriebssystem für sämtliche HPC-Standorte, auch bei einigen der besten Supercomputer der Welt.

Dr. Earl Joseph
Chief Executive Officer, Hyperion

Forschende in den verschiedensten Bereichen, darunter Grundlagenforschung, Wetter- und Klimaforschung sowie wehrtechnische Forschung, verwenden High-Performance Computing, um große Mengen an Daten auszuwerten und daraus Rückschlüsse zu ziehen. HPC-Cluster helfen bei der Modellierung und Simulation ebenso wie bei erweiterten Analysen.


Bisher war High-Performance Computing vor allem in staatlichen und akademischen Forschungseinrichtungen zu finden, weitet sich aber derzeit immer weiter aus und ist sowohl in traditionellen Architekturen in Rechenzentren als auch in Hybrid Cloud-Umgebungen zu finden.

High-Performance Computing bietet Vorteile für Nutzerinnen und Nutzer im industriellen und gewerblichen Bereich, und zwar in vielen Branchen, darunter:

Unternehmen unterstützen mit HPC-Clustern den technischen Rechenaufwand beim Design und der prädiktiven Modellierung in der Wissenschaft und im Finanzwesen. 

Das Portfolio von Red Hat für High-Performance Computing

Mit dem Portfolio von Red Hat für High-Performance Computing erhalten Sie die Vertrautheit und Leistungsfähigkeit unserer Open Source-Plattformen für Unternehmen für Ihre HPC-Workloads.

Ein Betriebssystem, das eine konsistente, flexible Basis bietet, auf der leistungsintensive Workloads ausgeführt werden können. Deshalb ist Red Hat Enterprise Linux die Betriebssystemplattform für El Capitan, den ersten Exascale-Supercomputer der National Nuclear Security Administration (NNSA). 

Eine moderne Anwendungsplattform, die für ein vertrauenswürdiges, umfassendes und konsistentes IT-Erlebnis sorgt und mit sicherheitsorientierten, skalierbaren Funktionen für die Entwicklung und Bereitstellung von Anwendungen Innovationen in Unternehmen und IT fördert.

Eine Lösung für das Infrastrukturmanagement zur effizienten Ausführung von Red Hat Enterprise Linux.

Eine offene, stark skalierbare, vereinfachte Storage-Lösung für moderne Daten-Pipelines.

Jetzt starten

Entdecken Sie die Möglichkeiten von HPC und Red Hat