5 tendenze che plasmano il futuro del computing a performance elevate

Il calcolo a performance elevate (HPC) si è evoluto rapidamente sin dal suo inizio nel 1964. Scopri i cinque trend principali dell’HPC e cosa potrebbero significare per le organizzazioni e i loro dati.

High-performance Computing

image_pdfimage_print


Il calcolo a performance elevate (HPC) si è evoluto rapidamente dalla sua genesi nel 1964 con l’introduzione del CDC 6600, il primo supercomputer al mondo. Da allora, la quantità di dati generata dal mondo è esplosa e, di conseguenza, la necessità di HPC per poter elaborare i dati in modo più rapido ed efficiente è diventata fondamentale.

Questa esigenza di elaborare i dati in modo più efficiente ha costretto innovatori e progettisti HPC a pensare fuori dagli schemi non solo in termini di modalità di elaborazione dei dati, ma anche di dove vengono elaborati e cosa finisce per essere elaborato. 

Non ci sono ancora standard o best practice chiare da seguire. Ma le innovazioni e le innovazioni stanno arrivando veloci e vertiginose, soprattutto con aspetti come l’AI. 

“Il mondo, “il possibile” continua a espandersi in modo drastico, quasi geometrico. La quantità di dati che abbiamo e la quantità di elaborazione che abbiamo, e non si tratta solo del calcolo raw, ma anche dei progressi in termini di algoritmi e transfer learning. C’è così tanto lavoro da fare, è questa esplosione dell’innovazione in Cambia.” – Justin Emerson, Principal Technology Evangelist, Pure Storage

Con il cloud computing ormai consolidato, i floodgate si sono aperti a un mondo completamente nuovo di innovazione e sperimentazione nel supercomputing. Ecco i cinque trend principali dell’HPC: cosa sono e cosa significano per le aziende moderne sfruttare appieno la loro nuova ricchezza di dati. 

1. L’intelligenza artificiale sarà utilizzata per migliorare l’HPC.

Sarebbe molto difficile parlare delle attuali tendenze HPC senza menzionare l’intelligenza artificiale (AI). Negli ultimi cinque anni circa, con l’avvento dell’Internet of Things (IoT), del 5G e di altre tecnologie basate sui dati, la quantità di dati disponibili per un’AI significativa e in grado di cambiare la vita è effettivamente cresciuta abbastanza da consentire all’AI di avere un impatto sull’HPC e viceversa

I computer a performance elevate sono necessari per potenziare i workload AI, ma si scopre che l’AI stessa può ora essere utilizzata per migliorare i data center HPC. Ad esempio, l’AI è in grado di monitorare lo stato generale del sistema, compreso lo stato di storage, server e apparecchiature di rete, garantendo una configurazione corretta e prevedendo i guasti delle apparecchiature. Le aziende possono anche utilizzare l’AI per ridurre il consumo di elettricità e migliorare l’efficienza ottimizzando i sistemi di riscaldamento e raffreddamento. 

L’AI è importante anche per la sicurezza nei sistemi HPC, in quanto può essere utilizzata per lo screening dei dati in entrata e in uscita alla ricerca di malware. Inoltre, può proteggere i dati attraverso gli analytics comportamentali e il rilevamento delle anomalie.

L’elaborazione del linguaggio naturale (NLP) è un’altra entusiasmante area dell’AI correlata all’HPC. L’AI si basa sull’acquisizione di informazioni approfondite e valore dai dati, mentre l’NLP sta contribuendo a creare tecnologie più accessibili e inclusive.  

2. L’edge computing aggiunge valore e velocità.

Le aziende possono implementare il proprio data center HPC on-premise, nel cloud, all’edge (tuttavia tale edge può essere definito) o con una combinazione di questi. Tuttavia, sempre più organizzazioni scelgono deployment distribuiti (ad es. edge) per accelerare i tempi di risposta e risparmiare larghezza di banda. 

I data center centralizzati sono semplicemente troppo lenti per le applicazioni moderne, il che richiede che il calcolo dei dati e lo storage avvengano il più vicino possibile all’applicazione o al dispositivo per soddisfare SLA di latenza sempre più rigorosi e 5G-enabled. 

Naturalmente, la velocità è un componente chiave del calcolo a performance elevate, poiché più rapidamente le HPC possono calcolare i dati, più dati possono calcolare e più problemi complessi possono essere risolti. Man mano che l’edge computing diventa sempre più diffuso, i computer a performance elevate diventeranno ancora più potenti e preziosi. 

Leggi le 7 tendenze dell’edge computing da guardare >>

3. L’HPC diventerà ancora più accessibile come servizio.

L’emergere del cloud ha dato il via a una rivoluzione as-a-Service e l’HPC sta entrando a far parte del movimento. Molti vendor sono passati dalla vendita di apparecchiature HPC alla fornitura di HPC-as-a-Service (HPCaaS). Ciò consente alle aziende che non dispongono delle conoscenze, delle risorse o dell’infrastruttura interne necessarie per creare la propria piattaforma HPC e sfruttare l’HPC tramite il cloud.  

Oggi molti dei principali cloud provider, come Amazon Web Services (AWS), Google e Alibaba, offrono HPCaaS. I vantaggi di HPCaaS includono facilità di deployment, scalabilità e prevedibilità dei costi. 

4. Il GPU computing sarà sempre più diffuso.

Originariamente progettate per il gaming, le unità di elaborazione grafica (GPU) si sono evolute in uno dei tipi di tecnologia di calcolo più importanti. Una GPU è un’unità di elaborazione specializzata in grado di elaborare molti dati contemporaneamente, rendendo le GPU utili per il machine learning, il video editing e le applicazioni di gioco. 

Le applicazioni che utilizzano le GPU per l’HPC includono previsioni meteorologiche, data mining e altri processi diversificati che richiedono questa velocità e quantità di calcolo dei dati. NVIDIA è il più grande produttore di GPU. 

Scopri come Pure ridefinisce e semplifica i workflow di AI con NVIDIA >>

Nota: Le GPU sono talvolta confuse con le unità di elaborazione centrale (CPU) e le unità di elaborazione a tensore (TCU). Una CPU è un processore generico che gestisce tutta la logica, i calcoli e gli I/O di un computer. Una TCU è il processore specifico per le applicazioni personalizzato di Google utilizzato per accelerare i workload di machine learning. Una GPU, invece, è un processore aggiuntivo per migliorare l’interfaccia grafica ed eseguire attività high-end. 

5. Il data storage moderno sarà un investimento critico.

I tre componenti chiave di un sistema HPC sono il calcolo, il networking e lo storage. Poiché lo storage è uno degli elementi più importanti, è fondamentale disporre di una soluzione di data storage potente e moderna se si utilizza o si prevede di utilizzare l’HPC. 

Per poter gestire la grande quantità di dati coinvolti nell’HPC, il sistema di data storage del sistema HPC deve essere in grado di: 

  • Rendi disponibili i dati di qualsiasi nodo in qualsiasi momento
  • Gestisci richieste di dati di qualsiasi dimensione
  • Supporta protocolli orientati alle performance
  • Scalabilità rapida per stare al passo con SLA di latenza sempre più esigenti

Ti consigliamo di scegliere una soluzione di data storage che garantisca un sistema HPC realmente a prova di futuro. 

In che modo FlashBlade fornisce lo storage scale-out necessario per supportare i progetti HPC

Pure Storage® FlashBlade® è la soluzione più avanzata del settore che aiuta a eliminare i colli di bottiglia dello storage fornendo una piattaforma Unified Fast File and Object (UFFO) per i dati e le applicazioni moderni. Ma soprattutto, è semplice da installare, fornire e gestire. Scopri come potenziare i tuoi progetti di calcolo a performance elevate con FlashBlade: prova subito.

Presentazione della piattaforma Pure Storage per la nuova era dei data services