The Doppler Quarterly (DEUTSCHE) Sommer 2016 | Page 76

High Performance Compute bei AWS , Google und Azure

Joey Jablonski
Im Jahr 2009 schrieb ich einen Blog , in dem ich die Tauglichkeit der Verarbeitung von HPC-Workloads ( High Performance Compute ) in der Cloud in Frage stellte . Zu dieser Zeit war die Technologie in der Public Cloud einfach noch nicht soweit , die Arten von Workloads und Kommunikationsmustern , wie sie im HPC-Bereich vorkommen , zu bewältigen . Seit 2009 hat sich einiges getan . Mittlerweile sind wir an einem Punkt angelangt , an dem wir nicht nur über die Technologie in der Cloud verfügen , die für die Ausführung von HPC-Workloads erforderlich ist , sondern auch über praktische Anwendungsfälle von Unternehmen , die dies bereits erfolgreich praktizieren .
Das Broad Institute nutzt die Google Cloud und HPC , um umfangreiche genomische Informationen zu verarbeiten . So soll der wissenschaftliche Fortschritt bei Krebs , Diabetes , psychischen Störungen und vielen anderen Krankheiten beschleunigt werden .
Ein internationales Konstruktions- und Fertigungsunternehmen für automatische Testgeräte verwendet cloudbasiertes HPC , um lokale Ressourcen zu unterstützen und sicherzustellen , dass die Konstruktionen integrierter Schaltkreise zuverlässig sind und termingerecht geliefert werden .
Ein weltweit tätiges Finanzdienstleistungsunternehmen nutzt cloudbasierte HPC-Ressourcen für Portfolio-Analyse , Risikomodellierung und Compliance-Aktivitäten , um den sich ändernden Vorschriften immer einen Schritt voraus zu sein .
Auch wenn immer noch bestimmte HPC-Workloads gibt , die in der Cloud nicht so effizient oder leistungsfähig verarbeitet werden , wie Electronic Design Automation ( EDA ) und Shared Memory-Probleme , sind viele andere Workloads wie Genomikdaten , raumbezogene Daten , Darstellungs- und Bildanalysedaten für die Public Cloud sehr gut geeignet . Die führenden Cloud-Anbieter , darunter AWS , Azure und Google , haben viel investiert , damit Workloads einfach zu migrieren , verwalten und skalieren sind . Unterstützt wurden sie dabei von Unternehmen wie Cycle Computing und Univa , mit deren Funktionen sich HPC-Umgebungen neben dem Rechenzentrum auch leicht in der Cloud implementieren lassen . So lassen sich Unterbrechungen für Entwickler und Anwender minimieren .
Immer mehr HPC-Workloads werden in der Cloud verarbeitet werden , da die HPC-Communitys auch weiterhin innovative Technologien einsetzen werden . Eine Zielgruppe für die kontinuierliche Weiterentwicklung sind die Anwendungsanbieter , die traditionell in Rechenzentrumsumgebungen arbeiten , jedoch in die Optimierung ihrer Anwendungen investieren , um diese in einer elastischen Umgebung ausführen zu können . Ein Unternehmen , das im Bereich EDA führend ist , ist Cadence , das ständig in Software investiert , die in der Cloud effizient eingesetzt werden kann .
Parallele Dateisysteme sind ein Schlüsselelement bei den meisten HPC-Implementierungen . Intel ist mit Lustre eines der führenden Unternehmen und investiert weiterhin in Entwicklung und Optimierung . So will das Unternehmen sicherstellen , dass die Lösung in der Cloud gut funktioniert und Kunden einfach zu nutzende Vorlagen zur Verfügung stehen .
Es wird immer HPC-Workloads geben , die spezielle Hardware und Konnektivität von Cray und Mellanox erfordern . Diese in der Cloud auszuführen , kann sich als schwierig , wenn nicht sogar als unmöglich erweisen . Die Cloud sollte aber trotzdem für alle anderen Workloads genutzt werden , die einfach zu handhaben sind und sich nahtlos skalieren lassen . Wenn Sie Ihre HPC-Umgebung im Hinblick auf Wachstum , Technologieübergang und Leistungsspektrum untersuchen , sollten Sie die Cloud in Bezug auf Innovationen und Funktionalität in Betracht ziehen , mit denen Ihr Unternehmen höhere Flexibilität und Skalierbarkeit erreichen kann .
74 | THE DOPPLER | SOMMER 2016