custom background image

GPU-instanties H200


Versnel uw AI-projecten met de GPU-instanties H200

Top prestaties voor training, inferentie en de meest veeleisende dataloads in een betrouwbare en transparante Europese cloud.

Waarom kiezen voor NVIDIA H200 GPU's?

Krachtig

Tot 1,4 × sneller dan de H100 voor training en inferentie van GenAI-modellen.

Krachtig.

141 Go ultra snelle HBM3e-geheugen: 2 × meer geheugensnelheid, ideaal voor grote modellen.

Compatibel

Compatibel met H100: gebruik uw bestaande frameworks en optimalisaties zonder complexe migratie.

Soeverein

Beschikbaar in onze Public Cloud, wat flexibiliteit, transparantie en Europese naleving garandeert.

Geoptimaliseerd voor uw IA- en data-workloads

LLM op zeer grote schaal

Train en implementeer modellen tot 175 B parameters (GPT-3, Llama 3, Falcon 180 B) met 141 GB HBM3e-geheugen en een bandbreedte van 4,8 To/s.

Geavanceerde generatieve IA

Genereer tekst, afbeeldingen, audio en video met stabiele responstijden, zelfs in lange contexten.

Uitgebreide context en RAG

Verbeter uw IA-assistenten en chatbots met lange contextvensters.

Specificaties

Technische kenmerken

GPU

1 tot 8 GPU's per instance

GPU-geheugen

141 GB ultra-snel HBM3 per GPU

Krachtige opslag

Lokale NVMe passthrough op de meeste instances

Openbaar en privé netwerk

Tot 25 Gbps inbegrepen

Automatisering

Beheer via uw klantportaal, API, OVHcloud CLI…

Beveiligd en privé

Certificeringen ISO27001, SOC, hosting van gezondheidsgegevens…

Maximaliseer uw ROI met flexibele GPU-infrastructuur

Prijstransparantie

Betaal alleen voor de middelen die u gebruikt, zonder verborgen kosten. U houdt de controle over uw kosten terwijl u profiteert van optimale prestaties.

Directe schaalbaarheid

Verhoog of verlaag uw GPU-middelen op aanvraag, met een paar klikken. Pas uw capaciteit eenvoudig aan uw AI- en dataloads aan.

Soevereiniteit en naleving

Uw gegevens worden gehost op een gecertificeerde Europese cloud, wat veiligheid, transparantie en naleving van regelgeving (GDPR, ISO, HDS) garandeert.

Toegankelijkheid zonder instapbarrières

Toegankelijke H200 GPU's voor iedereen: van proof of concept tot productiedeplyment, zonder volumeverplichting of hardwarebeperkingen.

Hoe kies je je GPU voor inferentie?

Compacte modellen

Tot 7 B parameters, een A100 biedt een uitstekende prijs-prestatieverhouding.

Grote modellen

Met 65 B+ of uitgebreide contextvensters, biedt de H200 de benodigde geheugendoorvoer voor stabiele responstijden.

Antwoord op uw vragen

Welke serviceniveauverplichtingen (SLA) garandeert OVHcloud op een GPU-instantie?

De serviceniveauverplichting (SLA) is 99,99% maandelijkse beschikbaarheid op GPU-instanties. Zie de Algemene Servicevoorwaarden voor meer informatie.

Welke hypervisor wordt gebruikt voor virtualisatie van instances?

Net als andere instances worden de GPU-instances gevirtualiseerd door de KVM-hypervisor uit de Linux-kernel.

Wat is PCI Passthrough?

Kaarten met grafische processors worden aangestuurd via de PCI-bus van de fysieke server. PCI Passthrough is een functie van de hypervisor waarmee een virtuele machine over dedicated hardware beschikt door een directe toegang tot de PCI-bus die niet via virtualisatie loopt.

Kan de grootte van een Cloud GPU-instance veranderd worden?

Ja, Cloud GPU-instances kunnen na een herstart overschakelen naar een hoger model. Ze kunnen echter niet overschakelen naar een lager model.

Beschikken Cloud GPU-instances over een Anti-DDoS bescherming?

Ja, onze Anti-DDoS bescherming is zonder extra kosten inbegrepen bij alle OVHcloud-oplossingen.

Kan een instance die maandelijks gefactureerd wordt, omgezet worden naar een facturering per uur?

Als er reeds per maand gefactureerd wordt, dan kan er niet naar een facturatie per uur worden overgeschakeld. Kies voor de start van de instance zorgvuldig de geschiktste manier van factureren voor uw project.

Wat is een Cloud GPU?

Een Cloud GPU verwijst naar een rekendienst in de cloud die grafische verwerkingseenheden (GPU) levert om taken uit te voeren die veel rekenkracht vereisen. Deze taken kunnen grafische rendering, machinaal leren, gegevensanalyse en wetenschappelijke simulaties omvatten. In tegenstelling tot GPU's op locatie, die aanzienlijke hardware-investeringen vereisen, bieden Cloud GPU's een zekere mate van flexibiliteit en schaalbaarheid. Gebruikers kunnen on demand toegang krijgen tot high-performance computing-resources en alleen betalen voor wat ze gebruiken.

Wat is een H100- en A100-server?

Servers met NVIDIA H100- en A100-GPU's zijn systemen die ontworpen zijn om buitengewone prestaties te leveren op het gebied van High Performance Computing (HPC), artificiële intelligentie (AI) en gegevensanalyse.

Wat is NGC?

NVIDIA Cloud GPU (NGC) is een cloudcomputingplatform van NVIDIA. Het biedt een complete catalogus aan geoptimaliseerde, GPU-versnelde software voor artificiële intelligentie (AI), machine learning (ML) en high-performance computing (HPC). NGC heeft tot doel de implementatie van AI-applicaties en programma’s voor wetenschappelijke berekeningen te vereenvoudigen en te versnellen door containers, reeds getrainde modellen, SDK’s en andere tools te leveren, die allemaal geoptimaliseerd zijn om volop gebruik te maken van NVIDIA GPU’s.

Waarom zou u een Cloud GPU gebruiken?

Het gebruik van een Cloud GPU biedt veel voordelen, vooral voor bedrijven, onderzoeksteams en ontwikkelteams die actief zijn op veeleisende gebieden zoals artificiële intelligentie (AI), grafische rendering, machine learning (ML) en high-performance computing (HPC).