5 tendances pour l’avenir du calcul haute performance

Le calcul haute performance (HPC) a évolué rapidement depuis sa création en 1964. Découvrez les cinq principales tendances en matière de HPC et ce qu’elles peuvent signifier pour les organisations et leurs données.

High-performance Computing

image_pdfimage_print


Le calcul haute performance (HPC) a rapidement évolué depuis sa genèse en 1964 avec l’introduction du CDC 6600, le premier superordinateur au monde. Depuis, la quantité de données générées dans le monde a explosé et, par conséquent, la nécessité pour le HPC de pouvoir traiter les données plus rapidement et plus efficacement est devenue primordiale.

Cette exigence de traiter les données plus efficacement a contraint les innovateurs et les concepteurs HPC à sortir des sentiers battus en termes de traitement, non seulement de lieu de traitement et de finalité du traitement. 

Il n’y a pas encore de normes ou de bonnes pratiques claires à suivre. Mais les innovations et les innovations sont rapides et lourdes, en particulier avec l’AI. 

« Le monde, « le possible » ne cesse de s’étendre de manière spectaculaire, presque géométrique. La quantité de données dont nous disposons et la quantité de calcul dont nous disposons, et il ne s’agit pas seulement du calcul brut, mais également des progrès réalisés en termes d’algorithmes et d’apprentissage par transfert. Il y a tellement de travail incroyable que c’est cette explosion de l’innovation camebrienne. » – Justin Emerson, évangéliste technologique principal, Pure Storage

Le cloud computing étant désormais solidement établi, les vagues se sont ouvertes à un tout nouveau monde d’innovation et d’expérimentation. Voici les cinq principales tendances du HPC : ce qu’elles sont et ce qu’elles signifient pour que l’entreprise moderne puisse tirer pleinement parti de sa nouvelle richesse de données. 

1. L’intelligence artificielle sera utilisée pour améliorer le HPC.

Il serait très difficile de parler des tendances actuelles du HPC sans parler de l’intelligence artificielle (AI). Au cours des cinq dernières années environ, avec l’avènement de l’Internet des objets (IoT), de la 5G et d’autres technologies axées sur les données, la quantité de données disponibles pour une AI significative et révolutionnaire a en fait suffisamment augmenté pour que l’AI ait un impact sur le HPC, et inversement

Les ordinateurs haute performance sont nécessaires pour alimenter les charges de travail d’AI, mais il s’avère que l’AI elle-même peut désormais être utilisée pour améliorer les datacenters HPC. Par exemple, l’AI peut surveiller l’état général du système, notamment l’état du stockage, des serveurs et des équipements réseau, garantissant ainsi une configuration correcte et prédisant les pannes d’équipement. Les entreprises peuvent également utiliser l’AI pour réduire la consommation d’électricité et améliorer l’efficacité en optimisant les systèmes de chauffage et de refroidissement. 

L’AI est également importante pour la sécurité des systèmes HPC, car elle peut être utilisée pour détecter les données entrantes et sortantes à la recherche de logiciels malveillants. Elle peut également protéger les données grâce à l’analytique comportementale et à la détection des anomalies.

Le traitement du langage naturel (NLP) est un autre domaine passionnant de l’AI lié au HPC. L’AI consiste à extraire des informations stratégiques et de la valeur des données, et le NLP contribue à créer des technologies plus accessibles et inclusives.  

2. L’informatique de périphérie ajoutera de la valeur et de la vitesse.

Les entreprises peuvent déployer leur datacenter HPC sur site, dans le cloud, à la « périphérie » (quelle que soit la définition de cette périphérie), ou avec une combinaison de ces éléments. Cependant, de plus en plus d’organisations choisissent des déploiements distribués (c.-à-d. périphériques) pour accélérer les temps de réponse et économiser de la bande passante. 

Les datacenters centralisés sont tout simplement trop lents pour les applications modernes, qui nécessitent un calcul et un stockage des données aussi proches que possible de l’application ou du périphérique pour respecter des SLA de latence de plus en plus stricts 5G-enabled. 

La vitesse est bien entendu un élément clé du calcul haute performance, car plus les HPC sont rapides, plus ils peuvent calculer de données et plus ils peuvent résoudre de problèmes complexes. À mesure que l’informatique de périphérie devient de plus en plus populaire, les ordinateurs haute performance deviennent encore plus puissants et précieux. 

Découvrez les 7 tendances de l’informatique de périphérie >>

3. Le HPC deviendra encore plus accessible à la demande.

L’émergence du cloud a ouvert la voie à une révolution as-a-service, et le HPC rejoint désormais le mouvement. De nombreux fournisseurs sont passés de la vente d’équipements HPC à la fourniture de solutions HPC as-a-Service (HPCaaS). Cela permet aux entreprises qui n’ont pas les connaissances, les ressources ou l’infrastructure en interne de créer leur propre plateforme HPC pour tirer parti du HPC via le cloud.  

Aujourd’hui, de nombreux grands fournisseurs de cloud, tels qu’Amazon Web Services (AWS), Google et Alibaba, proposent une HPCaaS. Les avantages de la HPCaaS incluent la facilité de déploiement, l’évolutivité et la prévisibilité des coûts. 

4. L’informatique GPU sera en plein essor.

Initialement conçues pour le gaming, les unités de traitement graphique (GPU) sont devenues l’un des principaux types de technologies informatiques. Un GPU est une unité de traitement spécialisée capable de traiter simultanément de nombreuses données, ce qui en fait un outil utile pour l’apprentissage machine, l’édition vidéo et les applications de jeu. 

Les applications qui utilisent des processeurs graphiques pour le HPC incluent les prévisions météorologiques, l’exploration de données et d’autres processus divers qui nécessitent cette vitesse et cette quantité de calcul de données. NVIDIA est le plus grand fabricant de GPU. 

Découvrez comment Pure redéfinit et simplifie les workflows d’AI avec NVIDIA >>

Note : Les processeurs graphiques sont parfois confondus avec les processeurs centraux (CPU) et les unités de traitement Tensor (TCU). Un processeur central est un processeur universel qui gère l’ensemble de la logique, des calculs et des I/O d’un ordinateur. Un TCU est le processeur spécifique aux applications sur mesure de Google utilisé pour accélérer les charges de travail d’apprentissage machine. Un GPU, en revanche, est un processeur supplémentaire qui améliore l’interface graphique et exécute des tâches haut de gamme. 

5. Le stockage de données moderne sera un investissement essentiel.

Les trois composants clés d’un système HPC sont le calcul, la mise en réseau et le stockage. Le stockage étant l’un des éléments les plus importants, il est essentiel d’avoir une solution de stockage de données puissante et moderne si vous utilisez ou prévoyez d’utiliser le HPC. 

Pour pouvoir prendre en charge la grande quantité de données impliquées dans le HPC, le système de stockage de données du système HPC doit être capable de : 

  • Rendez les données disponibles à tout moment depuis n’importe quel nœud
  • Gérer n’importe quelle taille de demande de données
  • Prise en charge des protocoles axés sur les performances
  • Évoluez rapidement pour faire face aux SLA de latence de plus en plus exigeants

Vous devrez choisir une solution de stockage de données qui préserve votre système HPC à l’épreuve du temps. 

Comment FlashBlade fournit le stockage scale-out nécessaire pour prendre en charge les projets HPC

Pure Storage® FlashBlade® est la solution la plus avancée du secteur pour aider à éliminer les goulets d’étranglement du stockage en fournissant une plateforme UFFO (Unified Fast File and Object) pour les données et applications modernes. Mieux encore, il est simple à installer, à mettre en service et à gérer. Découvrez par vous-même comment alimenter vos projets de calcul haute performance avec FlashBlade. Essayez dès aujourd’hui.

Présentation de la plateforme Pure Storage pour la nouvelle ère des services de données