Hewlett Packard Enterprise versnelt AI-training met nieuwe turnkeyoplossing in samenwerking met NVIDIA

Redactie WINMAG Pro

Hewlett Packard Enterprise (NYSE: HPE) kondigt vandaag een supercomputingoplossing aan voor generative AI voor grote bedrijven, onderzoeksinstellingen en overheidsinstanties om de training en tuning van artificial intelligence (AI)-trainingsprojecten te versnellen door gebruik van private datasets. Deze oplossing bestaat uit een software suite die klanten in staat stelt om modellen te trainen en tunen, en AI-applicaties te ontwikkelen. Ook heeft de oplossing vloeistofgekoelde supercomputers, accelerated compute, networking, storage en diensten zodat bedrijven sneller waarde uit AI kunnen halen.

Softwaretools om AI-applicaties te bouwen, pre-builtmodellen te tunen en code te ontwikkelen en aan te passen zijn cruciale onderdelen van deze supercomputingoplossing voor generative AI. De software is geïntegreerd met HPE Cray supercomputingtechnologie gebaseerd op dezelfde architectuur die gebruikt wordt in de snelste supercomputer van de wereld. Ook is de software uitgerust met de NVIDIA Grace Hopper™ GH200 Superchips. Deze oplossing biedt organisaties de kracht en prestaties die nodig zijn voor grote AI-workloads, zoals het trainen van large language models (LLM’s) en deep learning recommendation models (DLRM’s). De nieuwe oplossing verbetert de performance met 200-300%[i].

Een krachtige, geïntegreerde AI-oplossing

De supercomputingoplossing voor generative AI is een geïntegreerde, AI-native-oplossing die de volgende end-to-endtechnologieën en -diensten bevat:

  • AI/ML acceleration software – Drie softwaretools helpen klanten hun AI-modellen te trainen en tunen, en hun eigen AI-applicaties te creëren.
  • HPE Machine Learning Development Environment is een machine learning (ML) softwareplatform dat het voor klanten mogelijk maakt om AI-modellen sneller te ontwikkelen en in te zetten door populaire ML-frameworks te integreren en datavoorbereiding te vereenvoudigen.
  • NVIDIA AI Enterprise helpt organisaties aan leading-edge AI met security, stabiliteit, beheerbaarheid en support. Het biedt frameworks, getrainde modellen en tools die de ontwikkeling en het inzetten van AI stroomlijnen.
  • De HPE Cray Programming Environment suite biedt programmeurs een complete set tools voor het ontwikkelen, porten, debuggen en verfijnen van code.
  • Ontworpen voor groot gebruik – Gebaseerd op HPE Cray EX2500, een exascale-klassesysteem, en met NVIDIA GH200 Grace Hopper Superchips kan de oplossing duizenden graphic processing units (GPU’s) ondersteunen. Ook heeft het een mogelijkheid om de volledige capaciteit nodes te wijden aan één AI-workload voor een snellere time-to-value. Het systeem is de eerste die de quad GH200 Superchip node configuratie bevat.
  • Een netwerk voor real-time AI - HPE Slingshot Interconnect biedt een open, ethernet-gebaseerd high performance netwerk dat exascale-klasse workloads ondersteunt. Deze aanpasbare onderlinge verbintenis maakt high-speed networking mogelijk.
  • Turnkey eenvoud - HPE Complete Care Services biedt specialisten voor set-up, installatie en full-lifecycle-ondersteuning om AI-implementatie makkelijker te maken.

De toekomst van supercomputing en AI is laag in energieverbruik zonder effect op de performance

Het is voorspeld dat AI-workloads in 2028 meer dan 20 gigawatt aan stroom verbruiken in datacenters. Klanten hebben energie-efficiënte oplossingen nodig om de impact op hun koolstofuitstoot te minimaliseren. Daarom levert HPE oplossingen met vloeistofkoeling die voor een tot 20% betere performance per kilowatt zorgen, vergeleken met luchtgekoelde oplossingen. Bovendien verbruikt het 15% minder stroom[ii]. HPE levert het merendeel van 's werelds top tien meest efficiënte supercomputers. Door gebruik te maken van DLC-technologie (Direct Liquid Cooling) voor de supercomputingoplossing voor generative AI, kunnen klanten systemen efficiënt koelen. Zo helpt HPE organisaties om krachtige compute-technologie te gebruiken en tegelijkertijd hun energieverbruik te verminderen.

Beschikbaarheid

De supercomputingoplossing voor generative AI is vanaf december beschikbaar via HPE in meer dan 30 landen.

"Veel grote bedrijven en onderzoeksinstellingen trainen en tunen AI-modellen om innovatie te versnellen en onderzoeksdoorbraken te realiseren, maar om dit voor elkaar te krijgen hebben ze passende oplossingen nodig,” zegt Justin Hotard, executive vice president en general manager, HPC, AI & Labs bij Hewlett Packard Enterprise. “Om de implementatie van generative AI te ondersteunen, moeten organisaties oplossingen gebruiken die de benodigde performance leveren en de schaal van een supercomputer hebben die AI-training kunnen ondersteunen. We kijken ernaar uit om onze samenwerking met NVIDIA uit te breiden en een turnkey AI-native-oplossing aan te bieden, die onze klanten helpt hun AI-training en -resultaten te versnellen.

"Generative AI transformeert elke industrie en wetenschap," voegt Ian Buck, vice president Hyperscale en HPC bij NVIDIA toe. "NVIDIA’s samenwerking met HPE op het gebied van deze turnkey AI-training en -simulatie-oplossing, aangedreven door NVIDIA GH200 Grace Hopper Superchips, biedt klanten de performance die nodig is om doorbraken in hun generative AI-initiatieven te realiseren."

Aanvullende bronnen

[i] Standaard AI benchmarks, BERT en Mask R-CNN, maakt gebruik van een out-of-box, non-tuned systeem dat bestaat uit de HPE Cray EX2500 Supercomputer en gebruik maakt van een HPE Cray EX254n accelerator blade met vier NVIDIA GH200 Grace Hopper Superchips. De onafhankelijke tests laten een performanceverbetering van 200-300% zien in vergelijking tot MLPerf 3.0 gepubliceerde resultaten voor een A100-gebaseerd systeem dat bestaat uit twee AMD EPYC 7763 processors en vier NVIDIA A100 GPUs met NVLINK interconnects.

[ii] Gebaseerd op schattingen van interne performance testen door HPE in april 2023 die luchtgekoelde HPE Cray XD2000 vergelijkt met hetzelfde systeem dat directe vloeistofkoeling gebruikt. Met een benchmark van SPEChpc™2021, small, MPI + OpenMP, 64 ranks, 14 threads ingeschatte resultaten per server, meette het luchtgekoelde systeem 6,61 performance per kW en het DLC systeem meette 7,98 performance per kW, resulterend in een verschil van 20,7%. Dezelfde benchmark meette resultaten van 4539 watts voor het luchtgekoelde systeem’s chassis power en het DLC systeem meette 3862 watts, een verschil van 14,9%.

 

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie