The Doppler Quarterly (DEUTSCHE) Sommer 2016 - Page 76

High Performance Compute bei AWS, Google und Azure Joey Jablonski Im Jahr 2009 schrieb ich einen Blog, in dem ich die Tauglichkeit der Verarbeitung von HPC-Workloads (High Performance Compute) in der Cloud in Frage stellte. Zu dieser Zeit war die Technologie in der Pub- lic Cloud einfach noch nicht soweit, die Arten von Workloads und Kommunikationsmustern, wie sie im HPC-Bereich vorkommen, zu bewältigen. Seit 2009 hat sich einiges getan. Mittlerweile sind wir an einem Punkt angelangt, an dem wir nicht nur über die Tech- nologie in der Cloud verfügen, die für die Ausführung von HPC-Workloads erforderlich ist, sondern auch über praktische Anwendungsfälle von Unternehmen, die dies bereits erfolgreich praktizieren. Das Broad Institute nutzt die Google Cloud und HPC, um umfangreiche genomische Informationen zu ver- arbeiten. So soll der wissenschaftliche Fortschritt bei Krebs, Diabetes, psychischen Störungen und vielen anderen Krankheiten beschleunigt werden. Ein internationales Konstruktions- und Fertigungs- unternehmen für automatische Testgeräte verwen- det cloudbasiertes HPC, um lokale Ressourcen zu unterstützen und sicherzustellen, dass die Konstruk- tionen integrierter Schaltkreise zuverlässig sind und termingerecht geliefert werden. Ein weltweit tätiges Finanzdienstleistungsunterneh- men nutzt cloudbasierte HPC-Ressourcen für Portfo- lio-Analyse, Risikomodellierung und Compliance-Ak- tivitäten, um den sich ändernden Vorschriften immer einen Schritt voraus zu sein. Auch wenn immer noch bestimmte HPC-Workloads gibt, die in der Cloud nicht so effizient oder leistungs- fähig verarbeitet werden, wie Electronic Design Automation (EDA) und Shared Memory-Probleme, sind viele andere Workloads wie Genomikdaten, raumbezogene Daten, Darstellungs- und Bildanaly- sedaten für die Public Cloud sehr gut geeignet. Die führenden Cloud-Anbieter, darunter AWS, Azure und Google, haben viel investiert, damit Workloads ein- 74 | THE DOPPLER | SOMMER 2016 fach zu migrieren, verwalten und skalieren sind. Unterstützt wurden sie dabei von Unternehmen wie Cycle Computing und Univa, mit deren Funktionen sich HPC-Umgebungen neben dem Rechenzentrum auch leicht in der Cloud implementieren lassen. So lassen sich Unterbrechungen für Entwickler und Anwender minimieren. Immer mehr HPC-Workloads werden in der Cloud verarbeitet werden, da die HPC-Communitys auch weiterhin innovative Technologien einsetzen wer- den. Eine Zielgruppe für die kontinuierliche Weiter- entwicklung sind die Anwendungsanbieter, die tradi- tionell in Rechenzentrumsumgebungen arbeiten, jedoch in die Optimierung ihrer Anwendungen inves- tieren, um diese in einer elastischen Umgebung aus- führen zu können. Ein Unternehmen, das im Bereich EDA führend ist, ist Cadence, das ständig in Software investiert, die in der Cloud effizient eingesetzt wer- den kann. Parallele Dateisysteme sind ein Schlüsselelement bei den meisten HPC-Implementierungen. Intel ist mit Lustre eines der führenden Unternehmen und inves- tiert weiterhin in Entwicklung und Optimierung. So will das Unternehmen sicherstellen, dass die Lösung in der Cloud gut funktioniert und Kunden einfach zu nutzende Vorlagen zur Verfügung stehen. Es wird immer HPC-Workloads geben, die spezielle Hardware und Konnektivität von Cray und Mellanox erfordern. Diese in der Cloud auszuführen, kann sich als schwierig, wenn nicht sogar als unmöglich erwei- sen. Die Cloud sollte aber trotzdem für alle anderen Workloads genutzt werden, die einfach zu handha- ben sind und sich nahtlos skalieren lassen. Wenn Si )%ɔ!A Uչ!՘]մ)Qɝչ1չմչѕȴ)ՍͽѕM Ր ՜՘%مѥ)չչѥЁ ɅЁ饕Ё)%ȁUѕɹ١ɔ᥉ЁչMɉȴ)Ёɕ