Red Hat versterkt AI-ecosysteem met partnerships NVIDIA, Intel, Stability AI, Run:ai en AMD

Redactie WINMAG Pro

Red Hat, Inc., wereldwijd de grootste leverancier van open source-oplossingen, deelt tijdens Red Hat Summit in Denver enkele belangrijke resultaten van samenwerkingen met toonaangevende partners NVIDIA, Intel, AMD, Stability AI en Run:ai. Deze samenwerkingen versterken het AI-ecosysteem van Red Hat’s oplossingen en bieden krachtige mogelijkheden om de efficiëntie te verhogen en kosten te drukken. De aankondigingen werden gedaan tijdens de Red Hat Summit in Denver.

Hardware- en software-ondersteuning met Intel Technologies

De samenwerking met Intel vergemakkelijkt de levering van complete AI-oplossingen oplossingen op Intel AI-producten, waaronder Intel Gaudi AI-accelerators, Intel Xeon-processors, Intel Core Ultra- en Core-processors en Intel Arc GPU's. Deze producten kunnen worden ingezet voor modelontwikkeling, -training, -levering, -beheer en -monitoring in een hybride cloudinfrastructuur.

Daarnaast biedt Intel een verzameling schaalbare en gebruiksklare open source-software die geïntegreerd kan worden met Red Hat OpenShift AI en is gevalideerd voor interoperabiliteit in IT-omgevingen. Ondersteunde software omvat het Intel Tiber Edge Platform, waaronder Intel OpenVINO; Intel Tiber AI Studio; en oneAPI AI Tools. Selecte klanten kunnen toegang vragen tot Intel Gaudi AI-accelerators via de Intel Tiber Developer Cloud.

Lees het volledig Engelstalige persbericht hier

Krachtige integraties met NVIDIA

Aankomende integratieondersteuning voor NVIDIA NIM-microservices op Red Hat OpenShift AI ondersteunt de optimalisering van inferentie. Organisaties kunnen Red Hat OpenShift AI samen met NVIDIA NIM gebruiken – een reeks gebruiksvriendelijke microservices voor inferentie die onderdeel zijn van het NVIDIA AI Enterprise-softwareplatform en de levering versnellen van generatieve AI-applicaties.

Door Red Hat OpenShift AI te gebruiken in combinatie met NVIDIA NIM, kunnen organisaties profiteren van:

  • Een gestroomlijnde integratiemethode om NVIDIA NIM te implementeren in een gemeenschappelijke workflow, samen met andere AI-implementaties voor meer consistentie en eenvoudiger beheer.
  • Geïntegreerde scaling en monitoring voor NVIDIA NIM-implementaties in afstemming met andere AI-modelimplementaties in hybride cloudomgevingen.
  • Hoogwaardige security, support en stabiliteit om een soepele overgang van prototype naar productie te garanderen voor organisaties met een AI-gedreven bedrijfsvoering.

Lees het volledig Engelstalig persbericht hier

GPU-optimalisatie met Run:ai

Red Hat werkt samen met Run:ai aan GPU-optimalisatie via gecertificeerde Operators voor Red Hat OpenShift AI. Deze Operators helpen gebruikers om hun AI-workloads te schalen en te optimaliseren om GPU-kosten te beperken. Hierdoor kunnen bedrijven optimaal gebruikmaken van de beschikbare AI-resources en zowel menselijke als hardwarematige workflows te verbeteren op een betrouwbaar MLOps-platform voor de grootschalige ontwikkeling van AI-applicaties en -modellen.

Door middel van de Operators van Run:AI kunnen organisaties:

  • GPU-gebruik inplannen voor AI workloads om essentiële workloads te prioriteren en ervoor te zorgen dat deze workloads voldoende resources krijgen gealloceerd.
  • Fractionele GPU en monitoring inzetten om dynamische resources toe te wijzen op basis van vooraf gedefinieerd beleid om de efficiëntie van de infrastructuur te verbeteren.
  • Controle en zichtbaarheid op gedeelde GPU-infrastructuur verbeteren voor makkelijkere toegang en resource-allocatie tussen IT-teams, datawetenschappers en applicatie development teams. 

Lees hier het volledig Engelstalig persbericht over de samenwerking met Run:AI

GPU-optimalisatie met AMD 

Ook AMD werkt samen met Red Hat aan GPU-optimalisatie via gecertificeerde Operators voor Red Hat OpenShift AI. Door middel van de Operators van AMD kunnen organisaties daarbij ook bestaande en toekomstige beperkingen in de GPU-supply chain mitigeren dan wel overwinnen.

Lees hier het volledige Engelstalige persbericht over de samenwerking met AMD

Integratie van de open Stability AI-modellen

Stability AI integreert zijn open AI-modellen met Red Hat OpenShift AI. Hierdoor krijgen Red Hat OpenShift AI-gebruikers toegang tot hypermoderne, open source LLM’s om AI-use cases te ontwikkelen en testen. Daarbij biedt Red Hat OpenShift AI een krachtig AI-applicatieplatform voor onder meer datavergaring, modeltraining en -finetuning, terwijl Stability AI helpt om het juiste model te vinden voor de juiste use case en de juiste plek.

Voordelen zijn onder meer: 

  • De mogelijkheid om te schalen en innoveren, met behoud van controle over data en producten in een vertrouwde omgeving.
  • Toegang tot open generatieve AI-modellen voor toepassingen in uiteenlopende sectoren en applicaties.
  • Modellen gebouwd met een safety-by-design-benadering om de productintegriteit te borgen tijdens vroege ontwikkelingsstadia.
  • Minder security-, compliance- en privacyrisico’s dankzij een beschermde omgeving waarin gebruikers hun AI-strategieën kunnen ontwikkelen. 
  • Lagere kosten voor het testen van AI-use cases binnen het Red Hat OpenShift AI-platform. 

Lees het volledig Engelstalig persbericht hier

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie