custom background image

GPU H200-instances


Versnel uw AI-projecten met de GPU H200-instances

Topprestaties voor training, inferentie en de meest veeleisende data workloads in een betrouwbare en transparante Europese cloud.

Waarom kiezen voor NVIDIA H200 GPU's?

Efficiënt

Tot 1,4 × sneller dan de H100 voor training en inferentie van GenAI-modellen.

Krachtig

141 GB supersnel HBM3e-geheugen: 2 × meer geheugensnelheid, ideaal voor grote modellen.

Compatibel

Compatibel met H100: benut uw bestaande frameworks en optimalisaties zonder complexe migratie.

Soeverein

Beschikbaar in onze Public Cloud, wat flexibiliteit, transparantie en Europese naleving garandeert.

Geoptimaliseerd voor uw AI- en data workloads

LLM op zeer grote schaal

Train en implementeer modellen tot 175 B aan parameters (GPT-3, Llama 3, Falcon 180 B) met zijn 141 GB HBM3e-geheugen en een bandbreedte van 4,8 To/s.

Geavanceerde generatieve AI

Genereer tekst, afbeeldingen, audio en video met stabiele responstijden, zelfs in lange contexten.

Uitgebreide context en RAG

Verbeter uw AI-assistenten en chatbots met lange pop-upvensters.

Specificaties

Technische kenmerken

GPU

1 tot 8 GPU's per instance

GPU-geheugen

141 GB supersnel HBM3 per GPU

Krachtige opslag

Lokale NVMe Passthrough op de meeste instances

Publiek en privé netwerk

Tot 25 Gbps inbegrepen

Automatisering

Beheer via uw klantportaal, API, OVHcloud CLI…

Beveiligd en privé

ISO27001, SOC-certificeringen, hosting van gezondheidsgegevens…

Maximaliseer uw ROI met een flexibele GPU-infrastructuur

Prijstransparantie

Betaal alleen voor de resources die u gebruikt, zonder verborgen kosten. U houdt de controle over uw kosten terwijl u profiteert van optimale prestaties.

Directe schaalbaarheid

Verhoog of verlaag uw GPU-resources op aanvraag, met een paar klikken. Pas uw capaciteit eenvoudig aan uw AI- en data workloads aan.

Soevereiniteit en conformiteit

Uw gegevens worden gehost op een gecertificeerde Europese cloud, wat veiligheid, transparantie en naleving van regelgeving (AVG, ISO, HDS) garandeert.

Toegankelijkheid zonder instapdrempel

Voor iedereen toegankelijke H200 GPU's: van proof of concept tot productie-uitrol, zonder volumeverplichtingen of hardwarebeperkingen.

Hoe kies ik een GPU voor inferentie?

Compacte modellen

Een A100 biedt een uitstekende prijs-prestatieverhouding en tot 7 B aan parameters.

Grote modellen

Van 65 B+ of uitgebreide pop-ups, de H200 lvert de benodigde geheugendbandbreedte voor stabiele responstijden.

Antwoord op uw vragen

Welke serviceniveauverplichtingen (SLA) garandeert OVHcloud op een Discovery-instance?

De service level agreement (SLA) is 99,99% maandelijkse beschikbaarheid op GPU-instances. Zie de Algemene Servicevoorwaarden voor meer informatie.

Welke hypervisor wordt gebruikt voor virtualisatie van instances?

Net als andere instances worden de GPU-instances gevirtualiseerd door de KVM-hypervisor uit de Linux-kernel.

Wat is PCI Passthrough?

Kaarten met grafische processors worden aangestuurd via de PCI-bus van de fysieke server. PCI Passthrough is een functie van de hypervisor waarmee een virtuele machine over dedicated hardware beschikt door een directe toegang tot de PCI-bus die niet via virtualisatie loopt.

Kan de grootte van een Cloud GPU-instance veranderd worden?

Ja, Cloud GPU-instances kunnen na een herstart overschakelen naar een hoger model. Ze kunnen echter niet overschakelen naar een lager model.

Beschikken Cloud GPU-instances over een Anti-DDoS bescherming?

Ja, onze Anti-DDoS bescherming is zonder extra kosten inbegrepen bij alle OVHcloud-oplossingen.

Kan een instance die maandelijks gefactureerd wordt, omgezet worden naar een facturering per uur?

Als er reeds per maand gefactureerd wordt, dan kan er niet naar een facturatie per uur worden overgeschakeld. Kies, voordat u de instance start, zorgvuldig de geschiktste manier van factureren voor uw project.

Wat is een Cloud GPU?

Een Cloud GPU verwijst naar een rekendienst in de cloud die grafische verwerkingseenheden (GPU) levert om taken uit te voeren die veel rekenkracht vereisen. Deze taken kunnen grafische rendering, machinaal leren, gegevensanalyse en wetenschappelijke simulaties omvatten. In tegenstelling tot GPU's op locatie, die aanzienlijke hardware-investeringen vereisen, bieden Cloud GPU's een zekere mate van flexibiliteit en schaalbaarheid. Gebruikers kunnen op verzoek toegang krijgen tot hoog presterende computing-resources en alleen betalen voor wat ze gebruiken.

Wat is een H100- en A100-server?

Servers met NVIDIA H100- en A100-GPU's zijn systemen die ontworpen zijn om buitengewone prestaties te leveren op het gebied van High Performance Computing (HPC), artificiële intelligentie (AI) en gegevensanalyse.

Wat is NGC?

NVIDIA Cloud GPU (NGC) is een cloudcomputingplatform van NVIDIA. Het biedt een complete catalogus aan geoptimaliseerde, GPU-versnelde software voor artificiële intelligentie (AI), machine learning (ML) en high-performance computing (HPC). NGC heeft tot doel de implementatie van AI-applicaties en programma’s voor wetenschappelijke berekeningen te vereenvoudigen en te versnellen door containers, reeds getrainde modellen, SDK’s en andere tools te leveren, die allemaal geoptimaliseerd zijn om volop gebruik te maken van NVIDIA GPU’s.

Waarom zou u een Cloud GPU gebruiken?

Het gebruik van een Cloud GPU biedt veel voordelen, vooral voor bedrijven, onderzoeksteams en ontwikkelteams die actief zijn in veeleisende gebieden zoals artificiële intelligentie (AI), grafische rendering, machine learning (ML) en high-performance computing (HPC).