High-Performance-Computing (HPC) hat sich seit seiner Entstehung im Jahr 1964 mit der Einführung des CDC 6600, dem weltweit ersten Supercomputer, schnell weiterentwickelt. Seitdem ist die Datenmenge, die die Welt generiert, explodiert, und dementsprechend ist die Notwendigkeit, dass HPC Daten schneller und effizienter verarbeiten kann, von höchster Bedeutung.
Diese Anforderung, Daten effizienter zu verarbeiten, hat HPC-Innovatoren und -Designer gezwungen, nicht nur in Bezug darauf, wie die Daten verarbeitet werden, sondern auch dort, wo sie verarbeitet werden und was letztendlich verarbeitet wird, über den Tellerrand hinauszudenken.
Es gibt noch keine Standards oder klare Best Practices, die zu befolgen sind. Aber die Innovationen und Durchbrüche werden schnell und dick, insbesondere bei Dingen wie AI.
„Die Welt, das „Mögliche“ wächst dramatisch, fast geometrisch. Die Menge an Daten, die wir haben, und die Menge an Rechenleistung, die wir haben, und es geht nicht nur um die Rohberechnung, sondern auch um die Fortschritte in Bezug auf Algorithmen und Transferlernen. Es gibt so viele erstaunliche Arbeiten, dass es diese kammbrische Innovationsexplosion gibt.“ – Justin Emerson, Principal Technology Evangelist, Pure Storage
Da Cloud-Computing mittlerweile fest etabliert ist, haben sich die Fluttore für eine ganz neue Welt der Supercomputing-Innovationen und -Experimente geöffnet. Hier sind die fünf wichtigsten Trends bei HPC – was sie sind und was sie bedeuten, damit das moderne Unternehmen seine neue Fülle an Daten voll ausschöpfen kann.
1. Künstliche Intelligenz wird zur Verbesserung von HPC eingesetzt.
Es wäre sehr schwierig, über aktuelle HPC-Trends zu sprechen, ohne von künstlicher Intelligenz (AI) zu sprechen. In den letzten fünf Jahren ist die Datenmenge, die für sinnvolle, lebensverändernde KI verfügbar ist, mit dem Aufkommen des Internets der Dinge (IoT), 5G und anderen datengesteuerten Technologien tatsächlich so gewachsen, dass KI Auswirkungen auf HPC hat, und umgekehrt. AI AI
Hochleistungscomputer sind für KI-AI Workloads erforderlich, aber es hat sich herausgestellt, dass AI selbst jetzt zur Verbesserung von HPC-Rechenzentren verwendet werden kann. KI AI kann beispielsweise den allgemeinen Systemzustand überwachen, einschließlich des Zustands von Storage, Servern und Netzwerkausrüstung, um eine korrekte Konfiguration sicherzustellen und Geräteausfälle vorherzusagen. Unternehmen können auch AI nutzen, um den Stromverbrauch zu senken und die Effizienz durch die Optimierung von Heiz- und Kühlsystemen zu verbessern.
AI ist auch für die Sicherheit in HPC-Systemen wichtig, da sie verwendet werden kann, um eingehende und ausgehende Daten auf Malware zu überprüfen. Sie kann auch Daten durch Verhaltensanalysen und Anomalieerkennung schützen.
Die Verarbeitung natürlicher Sprache (NLP) ist ein weiterer spannender, HPC-bezogener Bereich der AI. AI geht es darum, Erkenntnisse und Mehrwert aus Daten zu gewinnen, und NLP hilft dabei, zugänglichere und integrativere Technologien zu schaffen.
2. Edge Computing wird Mehrwert und Geschwindigkeit steigern.
Unternehmen können ihr HPC-Rechenzentrum lokal, in der Cloud, am „Edge“ (jedoch kann dieser Edge definiert werden) oder mit einer Kombination davon bereitstellen. Immer mehr Unternehmen entscheiden sich jedoch für verteilte Bereitstellungen (d. h. Edge-Implementierungen), um die kürzeren Reaktionszeiten und die Vorteile einer Bandbreiteneinsparung zu erzielen.
Zentralisierte Rechenzentren sind für moderne Anwendungen einfach zu langsam, da Datenberechnung und Storage so nah wie möglich an der Anwendung oder dem Gerät erfolgen müssen, um immer strengere SLAs mit 5G-enabled Latenz zu erfüllen.
Geschwindigkeit ist natürlich eine Schlüsselkomponente des Hochleistungs-Computing, denn je schneller HPCs Daten berechnen können, desto mehr Daten können sie berechnen und desto komplexere Probleme können sie lösen. Mit zunehmender Beliebtheit von Edge Computing werden Hochleistungscomputer noch leistungsfähiger und wertvoller.
Erfahren Sie mehr über 7 Trends im Bereich Edge Computing, die Sie sich ansehen können >>
3. HPC wird als Service noch zugänglicher werden.
Das Aufkommen der Cloud hat eine As-a-Service-Revolution ausgelöst, und HPC ist jetzt Teil der Bewegung. Viele Anbieter haben vom Verkauf von HPC-Geräten auf die Bereitstellung von HPC-as-a-Service (HPCaaS) umgestellt. Dies ermöglicht es Unternehmen, die nicht über das interne Wissen, die Ressourcen oder die Infrastruktur verfügen, ihre eigene HPC-Plattform zu erstellen, um HPC über die Cloud zu nutzen.
Heute bieten viele große Cloud-Anbieter wie Amazon Web Services (AWS), Google und Alibaba HPCaaS an. Zu den Vorteilen von HPCaaS gehören einfache Bereitstellung, Skalierbarkeit und Vorhersehbarkeit der Kosten.
4. GPU-Computing wird auf dem Vormarsch sein.
Ursprünglich für Gaming entwickelt haben sich GPUs (Graphics Processing Units) zu einer der wichtigsten Arten von Computing-Technologie entwickelt. Eine GPU ist eine spezialisierte Verarbeitungseinheit, die viele Datenteile gleichzeitig verarbeiten kann, wodurch GPUs für maschinelles Lernen, Videobearbeitung und Spieleanwendungen nützlich sind.
Anwendungen, die GPUs für HPC verwenden, umfassen Wetterprognosen, Data Mining und andere verschiedene Prozesse, die diese Geschwindigkeit und Menge an Datenberechnung erfordern. NVIDIA ist der größte Hersteller von GPUs.
Erfahren Sie, wie Pure AI-Workflows mit NVIDIA neu definiert und vereinfacht >>
Hinweis: GPUs werden manchmal mit zentralen Verarbeitungseinheiten (CPUs) und Tensor-Verarbeitungseinheiten (TCUs) verwechselt. Eine CPU ist ein Allzweckprozessor, der alle Logiken, Berechnungen und I/O eines Computers verwaltet. Eine TCU ist der maßgeschneiderte anwendungsspezifische Prozessor von Google, der zur Beschleunigung von Workloads für maschinelles Lernen verwendet wird. Eine GPU hingegen ist ein zusätzlicher Prozessor, um die grafische Schnittstelle zu verbessern und High-End-Aufgaben auszuführen.
5. Moderner Daten-Storage wird eine kritische Investition sein.
Die drei Hauptkomponenten eines HPC-Systems sind Datenverarbeitung, Netzwerk und Storage. Da Storage eines der wichtigsten Elemente ist, ist es wichtig, eine leistungsstarke, moderne Daten-Storage-Lösung zu haben, wenn Sie HPC verwenden oder planen, HPC zu verwenden.
Um die große Datenmenge, die an HPC beteiligt ist, aufnehmen zu können, sollte das Daten-Storage-System des HPC-Systems in der Lage sein:
- Daten von jedem Knoten aus jederzeit verfügbar machen
- Bewältigen Sie jede Datenanfrage
- Unterstützung leistungsorientierter Protokolle
- Schnelle Skalierung, um mit immer anspruchsvolleren Latenz-SLAs Schritt zu halten
Sie sollten sich für eine Daten-Storage-Lösung entscheiden, die Ihr HPC-System wirklich zukunftssicher hält.
Wie FlashBlade den Scale-out-Storage bereitstellt, der zur Unterstützung von HPC-Projekten erforderlich ist
Pure Storage® FlashBlade® ist die fortschrittlichste Lösung der Branche, um Storage-Engpässe zu beseitigen, indem es eine einheitliche UFFO-Plattform (schnelle Datei und Objekt) für moderne Daten und Anwendungen bereitstellt. Und das Beste ist, dass es einfach zu installieren, bereitzustellen und zu verwalten ist. Erfahren Sie selbst, wie Sie Ihre Hochleistungs-Computing-Projekte mit FlashBlade voranbringen können – machen Sie noch heute eine Probefahrt.