Ist HPC auch Ihr neuer Erfolgsfaktor?

Sinkende Betriebskosten und neue Use Cases machen High Performance Computing für Firmen sämtlicher Größen attraktiv. Erfahren Sie, ob HPC auch für Sie von Interesse sein sollte.

In der datengetriebenen Business-Welt von heute bietet High Performance Computing (HPC) genau die richtige Plattform für Unternehmen, die komplexe Insights benötigen und dabei auf Fachgebiete wie Genforschung, Computerchemie, Financial Risk Modeling oder Seismic Imaging spezialisiert sind. Ursprünglich war High Performance Computing dafür gedacht, Wissenschaftler bei komplexen mathematischen Berechnungen zu unterstützen. Inzwischen entdecken immer mehr Unternehmen jeder Größenordnung und Branche das Thema HPC für sich.

Dale Brantly, Director of Systems Engineering beim HPC-Storage-Anbieter Panasas weiß, was es mit dieser Entwicklung auf sich hat: „Umgebungen die von der Aggregation, Analyse und der Verteilung von Daten abhängig sind, brauchen High Performance Computing. Ganz besonders, wenn dabei zuverlässige Systeme zum Einsatz kommen sollen, die das Streamlining von Workflows mit immenser Rechen-Power unterstützen.“

Zwar spielt HPC bei kleinen und mittleren Unternehmen weiterhin eher eine marginale Rolle – dennoch besitzt High Performance Computing großes Potenzial für Unternehmen, die bereit sind, entsprechend in die Technologie und das Knowhow ihrer Mitarbeiter zu investieren. In punkto Use Cases dreht sich bei HPC meist alles um eine Art von Simulation. „Solche Simulationen können etwa den Luftstrom eines Flugzeugs beinhalten, den Verbrennungsvorgang innerhalb eines Motors, das planetarische Wettersystem, eine Kernreaktion oder auch die Bewertung eines Investment Portfolios“, erklärt Kevin Kissell, technischer Direktor für HPC und Quantum Computing bei Google Cloud. Andere Use Cases beschäftigten sich mit Dingen wie den ROI von Anzeigen zu messen, oder die Performance von Geschäftsbereichen zu ermitteln. Weitere Anwendungsszenarien wie etwa Film- und Video-Rendering können als translational oder transformational kategorisiert werden, so der Experte.

High Performance Computing – ohne Supercomputer

Viele Business- und IT-Entscheider glauben, dass alle HPC-Systeme auf Basis eines Supercomputers laufen. Das stimmt allerdings nicht ganz. Zwar bilden Supercomputer, die von Herstellern wie Atos, IBM, HPE/Cray oder Fujitsu angeboten werden, in vielen Fällen den Kern von spezialisierten HPC-Systemen. Aber ein populärerer Ansatz ist die Integration mehrerer kleiner Computer zu einem High Performance Computing Cluster. Dabei stellt jeder Rechner innerhalb des Clusters einen Knoten (Node) dar, der Rechenoperationen ausführt und zu diesem Zweck meist mit mehreren Prozessoren, beziehungsweise Kernen, ausgestattet ist. Die Prozessoren, GPUs und Speicherressourcen jedes Knotens bilden in Kombination das HPC-System.

Die Anschaffung und individuelle Programmierung eines Supercomputers kann schnell mehrere Millionen Dollar kosten, weswegen solche Investitionen für eine Vielzahl von Unternehmen gar nicht erst in Frage kommen. Ein High Performance Computing Cluster besteht hingegen aus mehreren – relativ kostengünstigen – Computern, die mit handelsüblicher Software laufen. Deswegen ist ein HPC Cluster auch wesentlich kostengünstiger als ein Supercomputer. Dennoch kann auch ein HPC Cluster ab einer bestimmten Größe signifikante Investitionen nach sich ziehen – ganz besonders, wenn HPC nur in begrenztem Maße gebraucht wird.

Die eben beschriebene Situation ändert sich jedoch gerade drastisch: Unternehmen, die Zugang zu High Performance Computing wollen, ohne dafür ihr IT Budget maßlos zu überziehen, können inzwischen auf Cloud Services wie unserer GTS-Cloud, Google Cloud, Microsoft Azure, Amazon Web Services oder IBM Cloud „ausweichen“ – was die Investition in ein eigenes HPC Cluster überflüssig macht.

Vom HPC Cluster zu HPC aus der Cloud

Die University of North Carolina at Chapel Hill (UNCCH) hat sich lange auf ihr lokales HPC Cluster verlassen, um die wissenschaftlichen Forschungen in diversen Gebieten voranzutreiben. Allerdings hat der steigende Bedarf an High Performance Computing dafür gesorgt, dass das System in Sachen Ressourcen und Kapazitäten an seine Grenzen stieß. Statt das bestehende HPC Equipment auszubauen, entschied sich die Universität dafür, auf die Cloud zu setzen, um ihren Nutzern High Performance Computing zu ermöglichen – on demand und aus der Cloud.

Dieser Ansatz erwies sich in der Folge nicht nur als enorm flexibilitätssteigernd, sondern auch als sehr kosteneffektiv. „Dank der Cloud können wir exakt die benötigte Rechenkraft zur Verfügung stellen, die für einen bestimmten Zeitrahmen benötigt wird“, so Michael Barker, Interims-CIO der UNCCH.

Weil Use Cases mit enormem Bedarf an Rechen-Power immer mehr zur Regel wurden, entschied sich die UNCCH für Google Cloud und den Software Provider Techila Technologies. Letzteres Unternehmen zeichnet für die strategische Cloud-Migration der Universität verantwortlich. Der erste Schritt nach der Planung des Vorhabens war die Evaluierung eines Proof of Concept. Der Machbarkeitsnachweis erfolgte anhand eines besonders rechenintensiven Workloads. Das Ergebnis: Was im On-Premises HPC Cluster einige Wochen Zeit in Anspruch genommen hätte, konnte mit High Performance Computing aus der Cloud in wenigen Stunden verarbeitet werden.

Auch die University of York setzt auf einen Cloud-basierten HPC-Ansatz. Die Bildungseinrichtung setzt High Performance Computing auf verschiedenen Gebieten ein – beispielsweise in der Biologie, Physik, Informatik oder auch im Bereich der Sprachwissenschaft. Im Forschungsgebiet von James Chong, Professor für Biologie, wird die Google Cloud zur DNA-Analyse (von anaeroben Mikroben) genutzt. Wie seine Kollegen von der UNCCH weiß auch Chong insbesondere die zusätzliche Flexibilität der HPC Services aus der Cloud zu schätzen: „Unsere Bedürfnisse in Sachen High Performance Computing sind vielschichtig: Einige User brauchen viele Prozessoren, andere High-End-Speicherelemente.“

Die HPC Features aus der Cloud können dabei auch auf künftige Anforderungen angepasst werden, wie Chong erklärt: „Im Bereich Biologie beginnen wir gerade mit dem Einsatz von Machine-Learning-Methoden und wollen künftig verschiedene Architekturen realisieren.“

Wie die meisten HPC-Cloud-Angebote, stellt auch der Google Service für Wissenschaftler aus verschiedenen Bereichen zahlreiche Software Tools schnell und einfach zur Verfügung. Akquisitions-, Deployment- oder Konfigurations-Probleme gehören der Vergangenheit an.

High Performance Computing mit Supercomputer

Die University of Miami (UM) entschied sich hingegen für die Anschaffung eines neuen On-Premises-HPC-Systems auf Supercomputer-Basis. Der ausschlaggebende Punkt für diese Entscheidung lag in der Überzeugung der Verantwortlichen, dass riesige, multidimensionale Datensets mit speziell designten High Performance Supercomputern wesentlich schneller verarbeitet werden könnten. Im August 2018 wurde der neue IBM Triton Supercomputer auf Basis von Power Systems AC922 Servern präsentiert. Inzwischen wird er von mehr als 2.000 Studenten zahlreicher Fakultäten genutzt.

Das Deployment des Supercomputers verlief zwar erfolgreich – dennoch gab es dabei einige Hürden zu bewältigen, die jeden Nutzer der Technologie – unabhängig von der Größe der Organisation und ihren Anforderungen – erwarten dürften. „Eine Migration an sich verursacht immer Probleme. Auch Dinge wie Anwendertraining oder die Integration der neuen Systeme mit den bestehenden Storage-Systemen waren eine Herausforderung“, reüssiert Nicholas Tsinoremas, Director des Center for Computational Science an der UM.

Egal, ob nun High Performance Computing aus der Cloud oder On-Premises – ein problemloser Umstieg auf die Technologie erfordert viel Vorbereitung und Planung, wie Tsinoremas weiß: „Inhouse-Expertise ist dazu nötig, aber auch, dass die Institution einen Plan hat und weiß, was sie tut. Dazu ist das Verständnis um die Art der Workloads und ihrer Anforderungen unerlässlich: Sie müssen wissen, welche Probleme sie lösen wollen und wie HPC dazu beitragen kann.“

HPC Workloads – erste Schritte

Darüber hinaus kommt es auch auf die richtigen Resource Management Tools an, um die HPC-Umgebung innerhalb eines Unternehmens für die Benutzer zugänglich zu machen und sie optimieren zu können. HPC Workload Manager können Rechenressourcen nach Plan automatisiert zuweisen und übernehmen auch Management-, Monitoring- und Reporting-Aufgaben.

Kevin Kissell von Google empfiehlt eine Adoptionsstrategie für High Performance Computing, die verschiedene Kernaspekte in den Fokus nimmt: „Das kann eine lange Reise werden, also bereiten Sie sich gut vor – aber bewahren Sie sich dabei die Möglichkeit zur Kurskorrektur. Ermitteln Sie einen Test-Use-Case, der simpel aber repräsentativ ist. Er sollte klar herausstellen können, welche Vorteile der Einsatz einer HPC-Simulation oder -Analyse bringt. Anschließend erstellen Sie eine Liste der Softwarepakete, die für ihre Zwecke geeignet sind und testen diese.“