Hewlett Packard Enterprise (HPE) onthult AI Cloud for Large Language Models

Redactie WINMAG Pro

Hewlett Packard Enterprise (NYSE: HPE) kondigt vandaag een uitbreiding van het HPE GreenLake portfolio aan waarmee Large Language Models (LLM’s) beschikbaar worden voor elk bedrijf, van start-ups tot Fortune 500-bedrijven. Hiermee krijgen bedrijven on-demand toegang tot AI-diensten in een multi-tenant supercomputing cloudservice. Daarnaast introduceert HPE vandaag ook een nieuwe reeks van compute solutions, geoptimaliseerd voor AI-inference workloads aan de edge en in het datacenter.

 

HPE
  • HPE introduceert HPE GreenLake for Large Language Models (LLM’s), waarmee elk bedrijf privaat grootschalig AI kan trainen, optimaliseren en implementeren met behulp van een on-demand, multi-tenant supercomputing cloudservice.
  • De nieuwe service is de eerste in een reeks AI-applicaties en is op korte termijn geschikt voor klimaatmodellering, gezondheidszorg en biowetenschappen, financiële diensten, productie en transport.
  • HPE GreenLake voor LLM's zal draaien op supercomputers en AI-software, aangedreven door bijna 100% hernieuwbare energie1.

HPE levert supercomputing voor AI-training, optimalisatie en implementatie

HPE GreenLake voor Large Language Models (LLM’s) zwordt beschikbaar on-demand en draait op de duurzame HPE Cray XD supercomputers. Hierdoor hoeven klanten niet meer zelf een supercomputer aan te schaffen of te beheren, wat doorgaans duur en complex is, en specifieke expertise vereist. Het gebruik van supercomputers wordt hiermee voor een grotere groep toegankelijk. Het aanbod maakt gebruik van het HPE Cray Programming Environment, een volledig geïntegreerde softwareomgeving om HPC en AI-applicaties te optimaliseren, inclusief tools voor de ontwikkeling, porting, debugging en optimaliseren van code. HPE GreenLake voor LLM’s wordt geleverd in samenwerking met de Duitse start-up Aleph Alpha, om een gebruiksklare LLM beschikbaar te maken.

Verder biedt het supercomputingplatform ondersteuning voor HPE’s AI/ML-software, inclusief de HPE Machine Learning Development Environment om snel large-scale modellen te trainen en de HPE Machine Learning Data Management Software om track en audit data te integreren met reproduceerbare AI-mogelijkheden om betrouwbare en accurate modellen te genereren.

“We hebben een revolutionaire marktverschuiving bereikt in AI die net zo transformationeel is als het web, mobiel en cloud,” zegt Antonio Neri, President en CEO bij HPE. “HPE maakt AI, ooit het domein van multinationals, voor iedereen toegankelijk. De reeks van AI-applicaties begint met large language models, die draaien op de betrouwbare, duurzame supercomputers van HPE. Nu kunnen organisaties AI inzetten om innovatie te stimuleren en op een verantwoorde wijze doorbraken te realiseren met een on-demand cloudservice die beschikbaar is op maat.”

Workload-based aanpak voor groter vermogen

In tegenstelling tot cloudservices voor algemeen gebruik die meerdere workloads tegelijkertijd runnen, gebruikt HPE GreenLake voor LLM’s een AI-native architectuur die ontworpen is om één grootschalige AI-training en -simulatie workload te runnen op volle computingcapaciteit. Dit aanbod ondersteunt AI- en HPC-projecten op honderdduizenden CPU’s of GPU’s tegelijkertijd. Het vermogen is effectiever, betrouwbaarder en efficiënter om AI mee te trainen en creëert daarmee nauwkeurigere modellen. Bedrijven kunnen hiermee de ontwikkeling van proof of concept (POC) naar productie versnellen om problemen sneller op te lossen.

Toegang tot Large Language Model Lumious
In de HPE GreenLake voor LLM’s applicatie hebben gebruikers toegang tot Luminous, een getraind LLM van Aleph Alpha. Dit model is beschikbaar in meerdere talen, waaronder Engels, Frans, Duits, Italiaans en Spaans. De LLM staat klanten toe om hun eigen data te benutten, een gepersonaliseerd model te trainen en real-time inzichten te krijgen gebaseerd op hun eigen kennis.

“Door HPE’s supercomputers en AI-software te gebruiken hebben we efficiënt en snel Luminous getraind, een LLM voor essentiële bedrijven zoals banken, ziekenhuizen en advocatenkantoren om als digitale assistent te gebruiken om besluitvormingsprocessen te versnellen en tijd en middelen te besparen.” zegt Jonas Andrulis, founder en CEO, Aleph Alpha.

HPE GreenLake voor LLM’s draait op duurzame computing en is de eerste in een reeks AI-applicaties

HPE GreenLake voor LLM’s zal draaien in colocatiefaciliteiten, zoals met QScale in Noord-Amerika. Daar bouwden ze als eerste regio een met purpose gebouwd design, om de schaal en capaciteit van supercomputing te ondersteunen met bijna 100% hernieuwbare energie1. HPE GreenLake voor LLM’s is de eerste in een reeks industrie- en domeinspecifieke AI-applicaties die HPE zal lanceren. De reeks van applicaties geven ondersteuning bij klimaatmodellering, gezondheidszorg en biowetenschappen, financiële diensten, productie en support.

Ga voor meer informatie over HPE GreenLake for Large Language Models (LLMs) naar de website.

Beschikbaarheid

Het is vanaf nu mogelijk om HPE GreenLake voor LLM’s te bestellen in Noord-Amerika. HPE verwacht aan het eind van het kalenderjaar extra bestelmogelijkheden. In Europa wordt de dienst begin volgend jaar beschikbaar.

HPE kondigt vandaag ook een uitbreiding aan haar AI-inferencing compute-oplossingen. De nieuwe HPE ProLiant Gen11 servers zijn geoptimaliseerd voor AI-workloads en gebruiken geavanceerde GPU’s. De HPE ProLiant DL380a en DL320 Gen11 servers boosten AI-inferenceperformance met meer dan 500% vergeleken met voorgaande modellen2.  Kijk voor meer informatie op de website: HPE ProLiant Servers for AI

(1) HPE GreenLake for Large Language Models (LLMs) zal initieel draaien op supercomputers gehost in QScale’s Quebec colocatie dat stroom voorziet van 99,5% hernieuwbare bronnen.

(2) NVIDIA: vergelijking voor image generative AI performance van NVIDIA L40(TensorRT 8.6.0) versus T4 (TensorRT 8.5.2), Stable diffusion v2.1 (512x512).

Lees ook: HPE Aruba Networking biedt nieuwe mogelijkheden voor HPE GreenLake | WINMAG Pro

Lees ook: Hewlett Packard Enterprise helpt organisaties IT-CO₂-voetafdruk verminderen nieuw duurzaamheidsdashboard | WINMAG Pro

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie