Vultr lanceert Cloud Inference om modelimplementatie te vereenvoudigen en AI-applicaties automatisch wereldwijd te schalen
Vultr, 's werelds grootste private cloud computing platform, kondigt vandaag de lancering aan van Vultr Cloud Inference. Dit nieuwe serverloze platform revolutioneert de schaalbaarheid en het bereik van AI door wereldwijde inzet van AI-modellen en AI-inferentie mogelijk te maken. Door gebruik te maken van de wereldwijde infrastructuur van Vultr, die zich uitstrekt over zes continenten en 32 locaties, biedt Vultr Cloud Inference klanten naadloze schaalbaarheid, lagere latentie en verbeterde kostenefficiëntie voor hun AI-implementaties.
Het snel veranderende digitale landschap dwingt bedrijven om AI-modellen efficiënt te implementeren en te beheren. Dit vergroot de vraag naar geoptimaliseerde cloudinfrastructuur voor wereldwijde inferenties, terwijl organisaties zich meer richten op inferentiekosten bij het in productie brengen van modellen. Dit brengt uitdagingen met zich mee voor ontwikkelaars, die modellen moeten optimaliseren voor verschillende regio's en tegelijkertijd zorgen voor hoge beschikbaarheid en lage latenties.
Met dat in gedachten heeft Vultr Cloud Inference gecreëerd. Vultr Cloud Inference versnelt de time-to-market van AI-gedreven functies, zoals voorspellende en real-time besluitvorming, terwijl het een aantrekkelijke gebruikerservaring biedt in verschillende regio's. Gebruikers kunnen hun eigen model meebrengen, getraind op elk platform, in de cloud of op locatie, en het kan naadloos geïntegreerd en ingezet worden op de wereldwijde NVIDIA GPU-aangedreven infrastructuur van Vultr. Met speciale compute clusters die beschikbaar zijn op zes continenten, zorgt Vultr Cloud Inference ervoor dat bedrijven kunnen voldoen aan lokale datasoevereiniteit, data residency en privacyregelgeving. Dit door hun AI-toepassingen in te zetten in regio's die in lijn zijn met wettelijke vereisten en bedrijfsdoelstellingen.
"Training biedt de basis voor AI om effectief te zijn, maar het is inferentie dat het potentieel van AI omzet in impact. Nu een toenemend aantal AI-modellen van training naar productie overgaat, explodeert het volume van inferentie workloads. Maar de meerderheid van de AI-infrastructuur is niet geoptimaliseerd om aan de wereldwijde inferentiebehoeften te voldoen", zegt J.J. Kardwell, CEO van Vultr's moederbedrijf Constant. "Met de lancering van Vultr Cloud Inference kunnen AI-innovaties een maximale impact hebben door AI-implementatie te vereenvoudigen en inferentie met lage latentie over de hele wereld te leveren via een platform dat is ontworpen voor schaalbaarheid, efficiëntie en wereldwijd bereik."
Vultr Cloud Inference biedt ongeëvenaarde impact, waaronder:
- Flexibiliteit in AI-modelintegratie en -migratie: Met Vultr Cloud Inference beschikken gebruikers over een ongecompliceerd, serverloos AI-inferentieplatform waarmee AI-modellen eenvoudig geïntegreerd worden, ongeacht waar ze zijn getraind. Voor modellen ontwikkeld op Vultr Cloud GPU's van NVIDIA, in het eigen datacenter van gebruikers of op een andere cloud, maakt Vultr Cloud Inference probleemloze wereldwijde inferentie mogelijk.
- Minder complexe AI-infrastructuur: Door gebruik te maken van de serverloze architectuur van Vultr Cloud Inference kunnen bedrijven zich concentreren op innovatie en het creëren van waarde via hun AI-initiatieven in plaats van zich te richten op infrastructuurbeheer. Cloud Inference stroomlijnt het implementatieproces en maakt geavanceerde AI-mogelijkheden toegankelijk voor bedrijven zonder uitgebreide in-house expertise in infrastructuurbeheer, waardoor de time-to-market voor AI-gedreven oplossingen wordt versneld.
- Automatisch schalen van geoptimaliseerde infrastructuur voor inferentie: Door het realtime matchen van AI-applicatie workloads en voor inferentie geoptimaliseerde GPU's in de cloud kunnen engineeringteams naadloos prestaties leveren en tegelijkertijd zorgen voor het meest efficiënte gebruik van resources. Dit leidt tot aanzienlijke kostenbesparingen en minder impact op het milieu, omdat ze alleen betalen voor wat nodig is en gebruikt wordt.
- Privé, toegewijde computermiddelen: Met Vultr Cloud Inference hebben bedrijven toegang tot een geïsoleerde omgeving voor gevoelige of veeleisende workloads. Dit biedt verbeterde beveiliging en prestaties voor kritieke applicaties, in lijn met doelen rond databescherming, naleving van regelgeving en het handhaven van hoge prestaties onder piekbelastingen.
"De vraag naar geavanceerde AI-technologieën die AI-workloads wereldwijd van energie kunnen voorzien, neemt snel toe", zegt Matt McGrigg, director of global business development, cloud partners bij NVIDIA. "De introductie van Vultr Cloud Inference stelt bedrijven in staat om AI-modellen die zijn getraind op de NVIDIA GPU-infrastructuur naadloos te integreren en in te zetten, waardoor ze hun AI-toepassingen wereldwijd kunnen schalen."
Vervroegde toegang van Vultr Cloud Inference is via registratie hier beschikbaar.