GPU-instanties H200
Versnel uw AI-projecten met de GPU-instanties H200
Top prestaties voor training, inferentie en de meest veeleisende dataloads in een betrouwbare en transparante Europese cloud.
Waarom kiezen voor NVIDIA H200 GPU's?
Krachtig
Tot 1,4 × sneller dan de H100 voor training en inferentie van GenAI-modellen.
Krachtig.
141 Go ultra snelle HBM3e-geheugen: 2 × meer geheugensnelheid, ideaal voor grote modellen.
Compatibel
Compatibel met H100: gebruik uw bestaande frameworks en optimalisaties zonder complexe migratie.
Soeverein
Beschikbaar in onze Public Cloud, wat flexibiliteit, transparantie en Europese naleving garandeert.
Geoptimaliseerd voor uw IA- en data-workloads
LLM op zeer grote schaal
Train en implementeer modellen tot 175 B parameters (GPT-3, Llama 3, Falcon 180 B) met 141 GB HBM3e-geheugen en een bandbreedte van 4,8 To/s.
Geavanceerde generatieve IA
Genereer tekst, afbeeldingen, audio en video met stabiele responstijden, zelfs in lange contexten.
Uitgebreide context en RAG
Verbeter uw IA-assistenten en chatbots met lange contextvensters.
Specificaties
Technische kenmerken
GPU
1 tot 8 GPU's per instance
GPU-geheugen
141 GB ultra-snel HBM3 per GPU
Krachtige opslag
Lokale NVMe passthrough op de meeste instances
Openbaar en privé netwerk
Tot 25 Gbps inbegrepen
Automatisering
Beheer via uw klantportaal, API, OVHcloud CLI…
Beveiligd en privé
Certificeringen ISO27001, SOC, hosting van gezondheidsgegevens…
Maximaliseer uw ROI met flexibele GPU-infrastructuur
Prijstransparantie
Betaal alleen voor de middelen die u gebruikt, zonder verborgen kosten. U houdt de controle over uw kosten terwijl u profiteert van optimale prestaties.
Directe schaalbaarheid
Verhoog of verlaag uw GPU-middelen op aanvraag, met een paar klikken. Pas uw capaciteit eenvoudig aan uw AI- en dataloads aan.
Soevereiniteit en naleving
Uw gegevens worden gehost op een gecertificeerde Europese cloud, wat veiligheid, transparantie en naleving van regelgeving (GDPR, ISO, HDS) garandeert.
Toegankelijkheid zonder instapbarrières
Toegankelijke H200 GPU's voor iedereen: van proof of concept tot productiedeplyment, zonder volumeverplichting of hardwarebeperkingen.
Hoe kies je je GPU voor inferentie?
Compacte modellen
Tot 7 B parameters, een A100 biedt een uitstekende prijs-prestatieverhouding.
Grote modellen
Met 65 B+ of uitgebreide contextvensters, biedt de H200 de benodigde geheugendoorvoer voor stabiele responstijden.
Configureer uw GPU-instances
Antwoord op uw vragen
Welke serviceniveauverplichtingen (SLA) garandeert OVHcloud op een GPU-instantie?
De serviceniveauverplichting (SLA) is 99,99% maandelijkse beschikbaarheid op GPU-instanties. Zie de Algemene Servicevoorwaarden voor meer informatie.
Welke hypervisor wordt gebruikt voor virtualisatie van instances?
Net als andere instances worden de GPU-instances gevirtualiseerd door de KVM-hypervisor uit de Linux-kernel.
Wat is PCI Passthrough?
Kaarten met grafische processors worden aangestuurd via de PCI-bus van de fysieke server. PCI Passthrough is een functie van de hypervisor waarmee een virtuele machine over dedicated hardware beschikt door een directe toegang tot de PCI-bus die niet via virtualisatie loopt.
Kan de grootte van een Cloud GPU-instance veranderd worden?
Ja, Cloud GPU-instances kunnen na een herstart overschakelen naar een hoger model. Ze kunnen echter niet overschakelen naar een lager model.
Beschikken Cloud GPU-instances over een Anti-DDoS bescherming?
Ja, onze Anti-DDoS bescherming is zonder extra kosten inbegrepen bij alle OVHcloud-oplossingen.
Kan een instance die maandelijks gefactureerd wordt, omgezet worden naar een facturering per uur?
Als er reeds per maand gefactureerd wordt, dan kan er niet naar een facturatie per uur worden overgeschakeld. Kies voor de start van de instance zorgvuldig de geschiktste manier van factureren voor uw project.
Wat is een Cloud GPU?
Een Cloud GPU verwijst naar een rekendienst in de cloud die grafische verwerkingseenheden (GPU) levert om taken uit te voeren die veel rekenkracht vereisen. Deze taken kunnen grafische rendering, machinaal leren, gegevensanalyse en wetenschappelijke simulaties omvatten. In tegenstelling tot GPU's op locatie, die aanzienlijke hardware-investeringen vereisen, bieden Cloud GPU's een zekere mate van flexibiliteit en schaalbaarheid. Gebruikers kunnen on demand toegang krijgen tot high-performance computing-resources en alleen betalen voor wat ze gebruiken.
Wat is een H100- en A100-server?
Servers met NVIDIA H100- en A100-GPU's zijn systemen die ontworpen zijn om buitengewone prestaties te leveren op het gebied van High Performance Computing (HPC), artificiële intelligentie (AI) en gegevensanalyse.
Wat is NGC?
NVIDIA Cloud GPU (NGC) is een cloudcomputingplatform van NVIDIA. Het biedt een complete catalogus aan geoptimaliseerde, GPU-versnelde software voor artificiële intelligentie (AI), machine learning (ML) en high-performance computing (HPC). NGC heeft tot doel de implementatie van AI-applicaties en programma’s voor wetenschappelijke berekeningen te vereenvoudigen en te versnellen door containers, reeds getrainde modellen, SDK’s en andere tools te leveren, die allemaal geoptimaliseerd zijn om volop gebruik te maken van NVIDIA GPU’s.
Waarom zou u een Cloud GPU gebruiken?
Het gebruik van een Cloud GPU biedt veel voordelen, vooral voor bedrijven, onderzoeksteams en ontwikkelteams die actief zijn op veeleisende gebieden zoals artificiële intelligentie (AI), grafische rendering, machine learning (ML) en high-performance computing (HPC).