Pure Storage-referentiearchitectuur voor NVIDIA Enterprise AI Factory versnelt intelligentie op schaal

Het hebben van een flexibele en krachtige basis voor het huidige en toekomstige AI-landschap is cruciaal. Een nieuw gevalideerd AI-fabrieksplatform van NVIDIA en Pure Storage is speciaal gebouwd voor moderne bedrijfs-AI.

NVIDIA Enterprise AI Factory

Samenvatting

The Pure Storage with NVIDIA Enterprise AI Factory reference architecture is a jointly engineered solution that combines NVIDIA’s cutting-edge AI computation and orchestration capabilities with high-performance flash storage from Pure Storage.

image_pdfimage_print

De Pure Storage AI Factory met NVIDIA is een gevalideerd AI-infrastructuurplatform dat is ontworpen om AI-projecten van ondernemingen te versnellen. Naarmate AI-modellen en redeneringssystemen complexer worden, wil deze oplossing inzichten versnellen en tegelijkertijd de activiteiten vereenvoudigen.

Speciaal gebouwd voor Modern Enterprise AI

Traditionele IT heeft moeite om te voldoen aan de eisen van moderne AI-workloads, waardoor computer- en AI-teams voortdurend productief zijn. Aan de andere kant moet high-performance AI-opslag enterprise-mogelijkheden omvatten, zoals gegarandeerde uptime, agility en veerkracht. De Pure Storage-oplossing voor het door NVIDIA Enterprise AI Factory gevalideerde ontwerp pakt deze problemen aan met een eenvoudig te bedienen, geïntegreerde, krachtige en veerkrachtige architectuur. Het ondersteunt geavanceerde workloads zoals generatieve AI en computervisie door de nieuwste versnelde computer- en softwareplatforms van NVIDIA te combineren met Pure Storage® FlashBlade//S™-opslag, waardoor de prestaties en schaalbaarheid worden geleverd die nodig zijn voor grootschalige modeltraining en inferentie. De Pure Storage FlashBlade//S is een NVIDIA-gecertificeerd™-opslagsysteem dat kan worden geschaald om tot 1.024NVIDIA GPU’s en meerdere petabytes aan data te ondersteunen, met snelle netwerken die computer- en opslag nauw integreren. 

  • Non-disruptieve upgrades: FLASHBLADE maakt data-in-place upgrades mogelijk, waardoor uitbreiding of vernieuwingen zonder downtime mogelijk zijn, in tegenstelling tot traditionele opslag die vaak geplande uitval vereist.
  • Gebruiksgemak: Een uniform platform vereenvoudigt de AI-datapipeline van opname tot gevolg, ontworpen voor IT- en AI-ontwikkelaars van ondernemingen om met minimaal gedoe te werken.
  • Consistente prestaties: De architectuur levert betrouwbare prestaties op elke schaal, waardoor organisaties hun implementaties kunnen laten groeien zonder downtime of prestatieverlies.
  • Agility en toekomstbestendig: Het open, modulaire ontwerp ondersteunt evoluerende AI-technologieën en vermijdt vendor lock-in, waardoor flexibiliteit en interoperabiliteit worden gemaximaliseerd.
  • Efficiëntie: De hoge densiteit en het lagere stroomverbruik van FLASHBLADE verminderen de voetafdruk van datacenters en de operationele kosten, terwijl de unified stack het onderhoud vereenvoudigt.

Gevalideerde configuraties 

Samen bouwen Pure Storage, NVIDIA en andere systeempartners producten, software en diensten om de IT-overgang van bedrijven naar een AI-fabriek te versnellen. Na het door NVIDIA Enterprise AI Factory gevalideerde ontwerp, is Pure toonaangevend in het creëren van een nieuwe klasse van on-prem infrastructuur – met NVIDIA-gecertificeerde RTX™ PRO- en HGX Blackwell-servers, NVIDIA Spectrum™-X Ethernet-netwerken, NVIDIA BlueField® DPU’s en NVIDIA AI Enterprise-software in combinatie met Pure’s NVIDIA-gecertificeerde opslagsystemen. 

NVIDIA Enterprise AI Factory gevalideerde ontwerpoplossingen zijn gebaseerd op aanbevolen hardwareconfiguraties van NVIDIA Enterprise Reference Architectures (Enterprise RA), op maat gemaakt voor implementaties van ondernemingsklasse, variërend van 4 tot 32 nodes met 16 tot 256 GPU’s. Elke Enterprise RA volgt een voorschrijvend ontwerppatroon, een referentieconfiguratie genaamd, gebouwd rond een NVIDIA-gecertificeerde server om optimale prestaties in een cluster te garanderen. Deze referentieconfiguraties standaardiseren de beschrijving van Rekennodes op basis van CPU-, GPU-, netwerk- en bandbreedtespecificaties. De C-G-N-B-nomenclatuur vereenvoudigt de systeemselectie door duidelijk rekenkracht, netwerkmogelijkheden en bandbreedteprestaties aan te geven. Elk cijfer (bijv. 2-8-5-200) verwijst naar respectievelijk het aantal CPU-sockets, het aantal GPU’s, het aantal netwerkadapters (NIC’s, SuperNIC’s of DPU’s) en de gemiddelde Oostwest-bandbreedte per GPU (GbE).

Om de adoptie te vereenvoudigen, heeft Pure Storage zijn systemen afgestemd op de referentieconfiguraties die worden gebruikt in het door NVIDIA Enterprise AI Factory gevalideerde ontwerp, waardoor moeiteloze implementatie en schaalbaarheid van gebalanceerde systemen mogelijk is die knelpunten en suboptimale prestaties voorkomen. Hieronder staan de herhaalbare referentieconfiguraties waarvoor Pure heeft ontworpen en getest. 

Dit zijn gevalideerde bouwstenen die klanten en partner-OEM’s kunnen gebruiken om de oplossing op verschillende schalen te implementeren. Dit is wat dat betekent:

  • 2-4-3-200 (PCIe geoptimaliseerd): Een compute node met 2 CPU’s, 4 GPU’s, 3 snelle NIC/DPU’s en 200 Gbps netwerkbandbreedte per GPU.It kan overeenkomen met een NVIDIA-gecertificeerde server met vier PCIe GPU’s (NVIDIA L40S of de NVIDIA RTX PRO 6000 Blackwell Server Edition GPU’s of NVIDIA H100 NVL voor grote modellen) en drie 200Gb Ethernet-interfaces (vaak gebruikmakend van NVIDIA BlueField-3 DPU’s voor offloads). De 2-4-3-200 bouwsteen biedt een evenwichtig toegangspunt voor AI-fabrieken – voldoende voor taken zoals training in kleine modellen en fine-tuning of het bedienen van middelgrote modellen in productie. Ondernemingen kunnen beginnen met een cluster van deze 4-GPU-servers in de wetenschap dat de architectuur voorspelbaar zal schalen.
  • 2-8-5-200 (PCIe geoptimaliseerd): Een grotere PCIe-gebaseerde node met 2 CPU’s, 8 GPU’s, 5 NIC/DPU’s en 200 Gbps netwerkbandbreedte per GPU. Met acht GPU’s in één node, bevat deze configuratie meer AI-rekenkracht per server, geschikt voor zwaardere trainingstaken of geconsolideerde gevolgtrekkingsbedrijven. Deze configuratie komt overeen met de onlangs aangekondigde NVIDIA RTX PRO-server, met maximaal acht RTX PRO 6000 Blackwell Server Edition-GPU’s. Het “2-8-5”-ontwerppatroon zorgt voor nog meer netwerkbandbreedte en adaptertelling om het toegenomen aantal GPU’s aan te kunnen, waardoor een volledige pijplijn van 200 Gb/s naar elke GPU behouden blijft. Gebruikssituaties omvatten middelgrote modeltraining (zoals matige NLP-modellen of visiemodellen) en hoge verwerkingscapaciteitsinferentie voor veel gelijktijdige gebruikers. Deze configuratie kan worden geleverd via servers zoals NVIDIA-gecertificeerde HGX A100/H100 PCIe-systemen of aangepaste OEM-ontwerpen die aan de specificaties voldoen. Het biedt een uitstekende scale-up-optie terwijl het nog steeds standaard Ethernet-stof gebruikt.
  • 2-8-9-400 (HGX-geoptimaliseerd): Een high-end configuratie met 2 CPU’s, 8 GPU’s (in een NVIDIA HGX-vormfactor), 9 netwerkadapters en 400 Gbps netwerken per GPU. Dit komt overeen met een NVIDIA HGX-platform (bijv. HGX H100 of aankomende HGX H200) waarbij 8 SXM-GPU’s via NVIDIA NVLink zijn aangesloten met ultrahoge GPU-naar-GPU-bandbreedte (intern in volgorde van 900 GB/s). De “9”-netwerkinterfaces (zoals BlueField-3 DPU’s of NVIDIA ConnectX-7 NIC’s) bieden een enorme totale verwerkingscapaciteit – 8x 400Gb voor de GPU’s plus extra’s voor opslag of interclustercommunicatie – die effectief 400Gb/s levert aan elke GPU voor de meest I/O-intensieve workloads. Dit 2-8-9-400-patroon is gericht op de meest veeleisende scenario’s: training in grote modellen (modellen met meerdere miljarden parameters), zware gevolgtrekking op grote contextinputs of elke AI-workload waarbij maximale verwerkingscapaciteit en lage latency van het grootste belang zijn. Gezien de kracht is het natuurlijk geschikt voor gebruikssituaties zoals geavanceerde generatieve AI, complexe simulatie of grootschalige inferentie.

Deze referentieconfiguraties kunnen clusterbreed worden opgeschaald. Een AI-fabriek kan bijvoorbeeld beginnen met een (4) 2-8-5-200 nodes en later uitbreiden tot 32nodes per cluster – de FLASHBLADE-opslag en NVIDIA Spectrum-X Ethernet-netwerken zullen dienovereenkomstig schalen (er wordt richtlijnen gegeven voor hoeveel FLASHBLADE-chassis en -uplinks nodig zijn naarmate er een groeit, waardoor lineaire schaalbaarheid wordt gewaarborgd). Dit geeft ondernemingen een duidelijk, modulair groeipad: Begin met een bewezen bouwsteen en voeg meer toe naarmate de vraag naar AI toeneemt.

Om een brede toegankelijkheid te garanderen, valideren NVIDIA en Pure Storage oplossingen met grote server-OEM’s om deze AI Factory-bouwstenen op de markt te brengen. Dell Technologies-, HPE- en Supermicro-servers worden getest met NVIDIA Blackwell-platforms in combinatie met Pure Storage FLASHBLADE als complete AI Factory-oplossingen. Dit versnelt het ontwerp en de implementaties van NVIDIA AI Factory met de voorkeursleverancier van de klant en biedt het vertrouwen dat oplossingen volledig zijn gevalideerd volgens de NVIDIA-Pure Storage-specificaties.

De AI-fabriek is geen enkele black-box-appliance, maar eerder een open referentiearchitectuur waarop meerdere leveranciers kunnen bouwen. Ondernemingen kunnen de oplossing implementeren via de hardwareleverancier waaraan zij de voorkeur geven of zelfs componenten zelf integreren volgens het referentieontwerp. Deze openheid contrasteert met enkele concurrerende benaderingen die klanten verbinden met het ecosysteem van één leverancier. In alle gevallen profiteert de klant van het gezamenlijk gevalideerde ontwerp en het nauwe integratiewerk van de engineeringteams.

Unified Software Stack: NVIDIA Base Command Manager, Run:AI en Portworx van Pure Storage

Een opvallende functie van de NVIDIA-Pure Storage AI Factory is de uniforme softwarestack voor data- en computeorkestratie. Drie belangrijke softwarecomponenten spelen hierbij een rol: NVIDIA Base Command Manager, Portworx® van Pure Storage en NVIDIA Run:AI. Samen vormen ze een samenhangende laag die het uitvoeren van AI op schaal vereenvoudigt:

  • NVIDIA Base Command Manager is een oplossing voor clusterbeheer die snelle implementatie biedt en de provisioning en administratie voor clusters van elke omvang automatiseert. In de AI-fabriek biedt Base Command Manager provisioning-, monitoring- en beheermogelijkheden in één tool die de gehele levenscyclus van het cluster bestrijkt. Door Base Command Manager te integreren, zorgt de AI-fabriek ervoor dat organisaties het gebruik van hun clusterresources optimaliseren. De software bevat dashboards voor het weergeven van clustergebruiks- en gezondheidsgegevens om de prestaties te helpen afstemmen of problemen op te vangen (dus worden “infrastructuuroptimalisatietools” gebouwd). Kortom, NVIDIA Base Command Manager verbindt de hardware in één AIAIsupercomputer vanuit het oogpunt van de gebruiker, waardoor de complexiteit van het onderliggende cluster wordt weggenomen.
  • Portworx van Pure Storage is een Kubernetes-native dataplatform dat uitblinkt in het beheer van persistente opslag voor gecontaineriseerde applicaties. Binnen de AI-fabriek kan Portworx worden gebruikt om data op FLASHBLADE te orkestreren voor gecontaineriseerde AI-workloads. Aangezien AI-ontwikkeling steeds meer gebruikmaakt van container- en Kubernetes-gebaseerde pijpleidingen, zorgt Portworx ervoor dat data beschikbaar zijn voor containers waar ze ook draaien, met functies zoals dynamische volume provisioning, opslagsnapshots en replicatie tussen clusters. Dit is vooral belangrijk in hybrid cloud’s – als sommige AI-Microservices bijvoorbeeld in de cloud draaien terwijl de hoofdtraining on-prem plaatsvindt, kan Portworx helpen bij het naadloos verplaatsen of synchroniseren van data tussen omgevingen. Het biedt effectief een cloud-ready laag bovenop FLASHBLADE snelle opslag. De Portworx-integratie betekent dat ontwikkelaars de datalogistiek niet handmatig hoeven af te handelen; ze kunnen datavolumes aanvragen via Kubernetes en erop vertrouwen dat het platform de data met de benodigde prestaties zal leveren. In combinatie met de ruwe snelheid van FLASHBLADE zorgt dit ervoor dat gecontaineriseerde AI-taken (zoals modelinferentiediensten of datavoorbereidingspijplijnen) on-demand toegang krijgen tot data met lage latency en hoge verwerkingscapaciteit.
  • NVIDIA Run:AI is een gespecialiseerd AI-workloadorkestratieplatform dat het GPU-gebruik maximaliseert en de taakplanning in de AI-fabriek vereenvoudigt. Run:AI breidt Kubernetes uit met intelligente, beleidsgestuurde planningsmogelijkheden die dynamisch GPU-fracties toewijzen, wachtrijtaken uitvoeren en quota afdwingen, waardoor GPU-infrastructuur efficiënt kan worden gedeeld tussen meerdere gebruikers en teams. Als één experiment bijvoorbeeld slechts een deel van het geheugen van een GPU gebruikt, kan Run:AI extra workloads op dezelfde GPU plannen, waardoor het gebruik toeneemt op manieren die traditionele planners niet kunnen. Het resultaat is minder inactieve tijd en een hogere verwerkingscapaciteit van de workload binnen de AI-fabriek. Samen creëren Run:AI en Portworx in wezen één enkel uniform data- en resourcemanagementvlak voor GPU en opslag, waardoor datatoegang met lagere latency en een beter resourcegebruik voor AI-taken wordt geboden. Deze vereniging is een game-changer voor productiviteit: Data- en computeresources worden automatisch in tandem georkestreerd.

Door gebruik te maken van Base Command Manager, NVIDIA Run:AI en Portworx, levert de NVIDIA-Pure Storage AI Factory-oplossing een full-stack aanpak. Het gaat niet alleen om ruwe hardware, maar ook om hardware plus intelligente software. Dit betekent dat ondernemingen een kant-en-klaar platform krijgen dat niet alleen prestaties van wereldklasse biedt, maar ook de slimme automatisering en integratie die nodig zijn om die prestaties effectief te gebruiken. Ontwikkelaars kunnen AI-experimenten starten zonder zich zorgen te hoeven maken over het monteren van bestandssystemen of het vinden waar hun data zich bevinden – het platform verwerkt het. IT-operators kunnen zorgen voor governance en efficiëntie met fijnmazig controlebeleid. De uniforme stack maakt van de complexe matrix van GPU’s, netwerken en opslag een samenhangende ervaring voor eindgebruikers binnen het bedrijf.

Verbetering van de productiviteit van ontwikkelaars en AI Pipeline Efficiency

Een van de meest opwindende aspecten van de NVIDIA-Pure Storage AI Factory is hoe het het werk van AI-ontwikkelaars en datawetenschappers kan versnellen. Door knelpunten en complexiteit in de infrastructuur weg te nemen, kunnen teams zich concentreren op het bouwen van modellen en oplossingen in plaats van te worstelen met hardware- en dataloodgieterswerk. 

Zo verbetert de AI-fabriek de productiviteit in de AIAIpijplijn:

  • Vereenvoudigde datatoegang: In veel ondernemingen worden data in verschillende opslagsystemen geïsoleerd, en het verkrijgen van de juiste data om in AI-experimenten in te voeren is een traag, handmatig proces. Met de uniforme FLASHBLADE-opslag van de AI Factory bevinden alle stadia van AI-data – van ruwe opname tot verfijnde functies – zich in één snelle repository. Dit betekent dat trainingsclusters en inferentieservers rechtstreeks toegang hebben tot datasets, zonder vervelende kopieer- of overdrachtsstappen. Bovendien betekent de mogelijkheid van FLASHBLADE om zowel bestands- als objectworkloads te bedienen compatibiliteit met een breed scala aan AI-frameworks en dataformaten. Ontwikkelaars kunnen standaardprotocollen gebruiken (zoals NFS of S3) om data te lezen/schrijven met GPU-snelheden. De integratie van RoCE-netwerken zorgt er verder voor dat GPU’s data uit opslag kunnen halen met minimale latency en CPU-overhead. In de praktijk vertaalt dit zich in kortere laadtijden van data en de mogelijkheid om sneller te itereren. Een trainingstaak die mogelijk is gestopt met wachten op I/O verloopt nu ongehinderd, waardoor dure GPU-resources volledig worden benut.
  • Minimale infrastructuurtuning: Het afstemmen van de infrastructuur voor AI kan talloze uren IT-inspanning kosten. De Pure Storage met NVIDIA Enterprise AI Factory-oplossing vermindert deze last aanzienlijk. Deze referentiearchitectuur is vooraf gevalideerd en gebalanceerd voor AI-workloads, wat betekent dat out-of-the-box prestaties al zijn geoptimaliseerd. NVIDIA Base Command-software (inbegrepen in de stack) biedt tools om het GPU-gebruik te optimaliseren en de planning af te handelen, zodat beheerders hun eigen oplossingen voor het beheer van clusters met meerdere gebruikers niet hoeven te scripten. Over het algemeen betekenen de ontwerpkeuzes van het platform – zoals het gebruik van standaard Ethernet en RDMA, in plaats van obscure bedrijfseigen interconnecties – ook dat het gemakkelijk kan worden aangesloten op bestaande omgevingen. IT-teams besteden minder tijd aan knoeien en blussen, en AI-ontwikkelaars besteden minder tijd aan wachten. Hierdoor kunnen organisaties snellere iteratiecycli bereiken – meer experimenten, modelaanpassingen en tests in dezelfde tijd – waardoor het pad van idee naar Insight wordt versneld.
  • End-to-end pijplijnintegratie: De NVIDIA AI-fabriek met Pure Storage draait niet alleen om training; het is een holistische aanpak die betrekking heeft op datavoorbereiding, training, validatie en implementatie. Overweeg bijvoorbeeld een typische AIAIworkflow voor ondernemingen: Data-ingenieurs nemen grote datasets op en beheren deze, datawetenschappers trainen modellen op GPU-clusters en ML-ingenieurs implementeren die modellen voor gevolgtrekking in de productie. Traditioneel kan elke fase op afzonderlijke systemen plaatsvinden, waardoor data moeten worden verplaatst en omgevingen afzonderlijk moeten worden beheerd. In deze oplossing kan de gehele pijplijn worden verenigd. Een enkele FLASHBLADE kan de ruwe data, tussentijdse voorbewerkte data, modelcheckpoints en definitieve modelbestanden hosten, plus RAG-inbeddingen en KV-cachecontext voor gevolgtrekking. Dezelfde GPU-infrastructuur kan worden gepartitioneerd (met de juiste planning) om zowel trainingstaken als inferentiediensten af te handelen. Deze samenhang betekent dat zodra een model is getraind, het kan worden getest en aan gebruikers op hetzelfde platform kan worden bediend, waardoor de implementatietijd drastisch wordt verkort. Bovendien vermindert de consistente omgeving fouten bij de overgang van modellen van ontwikkeling naar productie. Dit alles leidt tot een agile AI-ontwikkelingsproces waarbij ideeën snel evolueren naar productie-implementaties, zonder de traditionele wrijving tussen siloteams en systemen.

Uiteindelijk, door eenvoudig prestaties te leveren, laat de AI-fabriek ondernemingen bereiken wat voorheen erg moeilijk was: een AI-platform dat zowel razendsnel als operationeel efficiënt is. Deze combinatie levert tastbare bedrijfsvoordelen op: snellere inzichten uit data, de mogelijkheid om vaker te herhalen op AI-modellen en een productiever ontwikkelingsteam dat niet wordt beperkt door infrastructuurproblemen.

FlashBlade: Een storage backbone die geoptimaliseerd is voor AI-workloads

De kern van de NVIDIA Enterprise AI-fabriek met Pure Storage is FlashBlade//S, een all-flash, schaalbaar opslagplatform dat speciaal is ontworpen voor moderne analytics en AI-workloads. In deze oplossing functioneert FLASHBLADE als het high-performance dataplatform dat zowel AI-training ondersteunt (waarvoor massale datasets efficiënt moeten worden gelezen) als AI-inferentie (die profiteert van snelle toegang met lage latency tot referentiedata en modelbestanden). De architectuur van FLASHBLADE is bij uitstek geschikt voor deze uitdagingen. Het biedt multidimensionale prestaties en schaalbaarheid; lage latency, parallelle datatoegang; non-disruptieve en veerkrachtige operaties; en de mogelijkheid om file- en objectopslag te verenigen, waardoor datawetenschappers en engineers kunnen werken met data in welk formaat hun tools ook verwachten, zonder gebruik te maken van silo’s van verschillende opslag.

Pure Storage FLASHBLADE biedt een NVIDIA Enterprise AI-fabriek een high-performance, zeer efficiënte databasis – met multi-petabyte capaciteit, tientallen terabytes per seconde aan verwerkingscapaciteit en consistente lage latency op schaal. Net zo belangrijk is dat het deze prestaties levert met de bedrijfsfuncties (snapshots, encryptie, replicatie) en het gebruiksgemak dat IT van bedrijven verwacht, in tegenstelling tot niche HPC-bestandssystemen. 

Conclusie: AIAIinnovatie versnellen met vertrouwen

De lancering van de NVIDIA Enterprise AI Factory met Pure Storage markeert een belangrijke mijlpaal in de evolutie van de AI-infrastructuur. Het combineert het beste van twee werelden: NVIDIA’s geavanceerde AI-reken- en orkestratiemogelijkheden en innovatieve flashopslagtechnologie van Pure Storage. Voor AI-leiders in ondernemingen betekent dit dat ze eindelijk een AI-platform kunnen implementeren dat prestaties op supercomputerniveau en betrouwbaarheid/efficiëntie op bedrijfsniveau in één pakket levert. Het vermogen van het platform om met gemak dynamische, multimodale AI-workloads te verwerken, terwijl de activiteiten en schaalbaarheid worden vereenvoudigd, verhoogt de flexibiliteit van de organisatie in een domein waar snelheid belangrijk is.

Door gebruik te maken van deze gezamenlijk ontwikkelde oplossing kunnen ondernemingen hun datacenters omzetten in echte “AI-fabrieken” – faciliteiten die voortdurend data opnemen, AI-modellen trainen en inzichten of intelligente diensten produceren die de onderneming aansturen. De Pure Storage met NVIDIA Enterprise AI Factory-referentiearchitectuur helpt organisaties de historische barrières weg te nemen die deze initiatieven hebben vertraagd: Dataverwerking zal niet langer een doorvoerblokkade zijn, het niet langer toevoegen van capaciteit vereist downtime, en ontwikkelaars zullen niet langer worden gestymeerd door infrastructuurproblemen. In plaats daarvan krijgen ze een gestroomlijnd, high-octane platform om snel te experimenteren en AI-resultaten te leveren.

Naarmate het AI-landschap zich blijft ontwikkelen (met steeds grotere modellen en opkomende applicaties in generatieve AI, realtime analytics en meer), is het hebben van een flexibele en krachtige basis essentieel. De AI-fabriek biedt die basis: prestaties op schaal, aanpasbaarheid voor de toekomst en ingebouwde operationele elegantie. Voor elke organisatie die het voortouw wil nemen in het AI-tijdperk, biedt de NVIDIA AI Factory met Pure Storage een overtuigende weg vooruit: Versnel uw AI-projecten vandaag, met het vertrouwen dat uw infrastructuur aan de behoeften van morgen zal voldoen. Dit is een AIAIinfrastructuur opnieuw ontworpen voor agility, prestaties en succes.

Meer lezen.

*Voor meer dan 1.024 GPU-omgevingen, verken FlashBlade//EXA™.