High Performance Computing

Warum HPC für Sie unerlässlich wird

08.10.2018
Anzeige  Big Data, Künstliche Intelligenz und das Internet of Things sorgen für rasant wachsende Datenmengen – und setzen High Performance Computing auf die Agenda vieler Unternehmen. Wenn das bei Ihnen nicht der Fall ist, sollten Sie sich fragen, ob Sie die richtige Strategie fahren.

Denn die Anwendungsfelder für High Performance Computing (HPC) sind äußerst vielfältig und kaum eine Branche profitiert nicht von den Hochleistungssystemen. Dabei wurde HPC vor nicht allzu langer Zeit vorrangig in der wissenschaftlichen Forschung eingesetzt - etwa für astrophysikalische Berechnungen oder die Kalkulation von Klima-Modellen. Die Kosten für solche Systeme lagen dabei lange Zeit weit außerhalb dessen, was selbst große Unternehmen bereit sind, für ihr Rechenzentrum auszugeben. Insbesondere aber fehlte es auch an Anwendungsfällen, die diese Investitionen gerechtfertigt hätten.

Digitalisierung braucht Geschwindigkeit: Wir verraten Ihnen, wie High Performance Computing Ihr Unternehmen mit Nachdruck nach vorne bringt.
Digitalisierung braucht Geschwindigkeit: Wir verraten Ihnen, wie High Performance Computing Ihr Unternehmen mit Nachdruck nach vorne bringt.
Foto: dotshock - shutterstock.com

Wie Unternehmen von HPC profitieren

Dieser Umstand hat sich inzwischen drastisch verändert, wobei die gesunkenen Hardware-Preise allenfalls eine Nebenrolle spielen: Im Zuge der Digitalisierung und den sie umgebenden Technologien erreicht die schiere Masse an Daten, die Unternehmen verarbeiten müssen, schwindelerregende Dimensionen. Um diese Datenmengen nicht nur in Datenbanken abzulegen, sondern sie möglichst in Echtzeit mit Business-Analytics-, KI- und Machine-Learning-Methoden für intelligente Systeme nutzen zu können, braucht es Rechenpower, die klassische Datacenter-Architekturen in vielen Fällen nicht liefern können.

Während Hochschulen in den entsprechenden Fakultäten schon fast traditionell mit Hochleistungsrechnern ausgestattet sind, gehören inzwischen auch in Unternehmen verschiedenster Branchen komplexe Berechnungen zum Alltag. Dabei handelt es sich etwa um Simulationen, wie Marco Becker, Analyst bei Techconsult und Autor der Studie "Das hochperformante Unternehmen", weiß: "Maschinen, Bauteile und Produkte werden mittlerweile meist erst modelliert, bevor Prototypen produziert werden. Einsatzszenarien und Belastungen werden dann vor dem eigentlichen Einsatz simuliert".

Von HPC in diesem Bereich profitiert vor allem die produzierende Industrie: Von der Planung bis zur anlaufenden Produktion können dabei nicht nur Kosten eingespart werden - vor allem lässt sich die Entwicklung neuer Produkte und Systeme mit Hilfe einer Simulation auf HPC-Basis erheblich beschleunigen. Auch KI-, Machine-Learning- und Deep-Learning-Systeme werden im Manufacturing - ebenso wie in einer Vielzahl anderer Branchen - immer häufiger eingesetzt. Real-Time-Analytics-, Data-Mining- sowie Big-Data- und IoT-Anwendungen sind weitere Technologien, die als Treiber für High Performance Computing in Unternehmen fungieren.

Es verwundert deshalb auch nicht, dass Analyst Becker einen deutlichen Anstieg von HPC-Systemen in Unternehmen verzeichnet: Von den befragten Studienteilnehmern (75 Bildungseinrichtungen und Firmen mit mehr als 50 Mitarbeitern) setzen demnach bereits mehr als zwei Drittel High Performance Computing in der Praxis ein. In den nächsten Jahren rechnet Becker damit, dass die HPC-Durchdringung im Unternehmensumfeld bis auf 93 Prozent ansteigt. Interessant ist in diesem Zusammenhang auch, dass nicht alle Befragten eigene HPC-Infrastrukturen aufbauen.

Rund 40 Prozent der Teilnehmer nutzen HPC als Service aus der Cloud: "HPC wird von den meisten bekannten Cloud-Dienstleistern bereits als Service angeboten", erklärt der Techconsult-Analyst. "Damit wird auch kleineren Unternehmen, für die sich die Investition in eigene HPC-Systeme nicht rechnet, die Möglichkeit eröffnet, kostenflexibel komplexe Berechnungen durchzuführen."

Der Aufbau einer Infrastruktur für High Performance Computing erfordert schließlich nicht nur Investitionsbereitschaft, sondern auch Knowhow - und das nicht zu knapp. Im Fall von HPC kommt es darüber hinaus auch - mehr als bei klassischen IT-Infrastrukturen - darauf an, dass alle Systeme und Komponenten - vom Prozessor über den Datenbus bis hin zu Netzwerk und Storage - nahtlos miteinander verzahnt sind. Ein Bottleneck in der Systemarchitektur kann die Funktionsfähigkeit von Realtime-Anwendungen, bei denen es in der Regel um Millisekunden geht, bereits nachhaltig in Frage stellen.

»

High Performance für jeden Workload

Weil das so ist, hat Intel ein ganzheitliches Framework entwickelt, das nicht nur alle Hardware-Komponenten für High-Performance-Computing-Zwecke enthält, sondern auch Software und Tools, um HPC-Systeme zu programmieren, orchestrieren und zu managen. Innerhalb Intels "Scalable System Framework" sind alle Komponenten aufeinander abgestimmt, wodurch eine nahtlose Integration sichergestellt wird. So lassen sich HPC-Infrastrukturen für die unterschiedlichsten Workloads realisieren - und im Hinblick auf Performance, Effizienz, Skalierbarkeit und Verfügbarkeit neue Maßstäbe setzen.

Bestandteil sind auch Prozessoren der "Intel Xeon Scalable Platform for HPC", die mit mehr Rechenkernen, PCIe-Lanes und einer höheren Bandbreite für den Speicherzugriff auf die Anforderungen in HPC-Umgebungen hin optimiert sind. Ebenso beschleunigen die von Intel entwickelten FPGAs (Field Programmable Gate Arrays) - integrierte Schaltkreise, die speziell für den Einsatz in HPC-Infrastrukturen programmiert werden können - die Verarbeitung von rechen- und datenintensiven Workloads.

Die skalierbare Fabric-Topologie (Netzwerk, Router, Switches), "Omni Path Architecture" sorgt für geringe Latenzen und ist auf eine Bandbreite von bis zu 100 GB/s für datenintensive HPC-Workloads ausgelegt. Eine speziell auf HPC-Bedürfnisse zugeschnittene Produktfamilie der Optane SSDs erlaubt zudem einen fünf- bis achtfach schnelleren Speicherzugriff als herkömmliche Systeme. Hinzu kommt ein breites Angebot an optimierten Bibliotheken, Frameworks und Tools - nicht nur für HPC-, sondern auch für KI- und Analytics-Zwecke.

"In Zukunft wird kaum ein Unternehmen auf HPC verzichten können"

Obwohl die HPC-Systeme Code-kompatibel mit anderen Intel-basierten Plattformen sind, entfalten sie ihr volles Potenzial erst, wenn der Code für die parallele Verarbeitung optimiert ist. Dafür liefert Intel eine weitere Gruppe von Software-Produkten, Entwicklungs-Tools und Libraries, die exakt auf parallele Multi-Prozessor-Umgebungen zugeschnitten sind. Dazu gehören beispielsweise der "Node Manager", "Parallel Studio" und "Trace Analyzer". Intels "Scalable System Framework" stellt insofern ein rundes Gesamtpaket dar, das auch Ihrem Unternehmen den Einstieg in das Feld des High Performance Computing erleichtern kann.

Dass das Angebot auf Interesse stoßen wird, steht laut Becker außer Frage: "In Zukunft wird kaum ein Unternehmen auf HPC verzichten können oder wollen. Zumindest die Teilnehmer unserer Studie planen in Zukunft fast ausnahmslos, HPC einzusetzen". Es gäbe unterdessen eine große Zahl von Einsatzszenarien und Business-Cases, die die Investitionen in eine HPC-Infrastruktur rechtfertigen, so der Analyst weiter; "Die Ausgaben für die Infrastruktur rechnen sich über schnellere Entwicklungszyklen, eingesparte Produktionskosten sowie schnellere, optimierte und damit gewinnbringendere Entscheidungen", resümiert der Techconsult-Analyst.

»
Zur Startseite