custom background image

Instancje GPU H200


Przyspiesz swoje projekty AI z instancjami GPU H200

Najwyższa wydajność dla treningu, wnioskowania i najbardziej wymagających obciążeń danych w europejskiej chmurze, niezawodnej i przejrzystej.

Dlaczego warto wybrać GPU NVIDIA H200?

Potężne

Do 1,4 × szybszy niż H100 w treningu i wnioskowaniu modeli GenAI.

Wydajność.

141 GB ultra szybkiej pamięci HBM3e: 2 × większa przepustowość pamięci, idealna dla dużych modeli.

obsługiwane

Kompatybilny z H100: wykorzystaj swoje istniejące frameworki i optymalizacje bez skomplikowanej migracji.

Suwerenny

Dostępne w naszej Public Cloud, zapewniając elastyczność, przejrzystość i zgodność z europejskimi normami.

Optymalizowane pod kątem obciążeń roboczych AI i danych

LLM o bardzo dużej skali

Trenuj i wdrażaj modele do 175 B parametrów (GPT-3, Llama 3, Falcon 180 B) dzięki 141 GB pamięci HBM3e i przepustowości 4,8 TB/s.

Zaawansowana sztuczna inteligencja generatywna

Generuj tekst, obraz, dźwięk i wideo z stabilnymi czasami odpowiedzi, nawet w długich kontekstach.

Rozszerzony kontekst i RAG

Ulepsz swoich asystentów AI i chatboty z długimi oknami kontekstowymi.

Specyfikacja

Specyfikacja techniczna

GPU

Od 1 do 8 GPU per instancja

Pamięć GPU

141 GB ultra szybkiej pamięci HBM3 na GPU

Wydajna przestrzeń dyskowa

Passthrough NVMe lokalny w większości instancji

Sieć publiczna i prywatna

Do 25 Gbps w cenie

Automatyzacja

Zarządzanie przez Twoje konto, API, OVHcloud CLI…

Bezpieczeństwo i poufność

Certyfikaty ISO27001, SOC, hosting danych zdrowotnych…

Zmaksymalizuj swój ROI dzięki elastycznej infrastrukturze GPU

Przejrzystość cenowa

Płać tylko za zasoby, które wykorzystujesz, bez ukrytych opłat. Zachowujesz kontrolę nad swoimi kosztami, ciesząc się jednocześnie optymalną wydajnością.

Natychmiastowa skalowalność

Zwiększaj lub zmniejszaj swoje zasoby GPU na żądanie, w kilka kliknięć. Dostosuj swoją pojemność do obciążeń AI i danych z łatwością.

Suwerenność i zgodność

Twoje dane są hostowane w certyfikowanej europejskiej chmurze, zapewniając bezpieczeństwo, przejrzystość i przestrzeganie regulacji (RODO, ISO, HDS).

Dostępność bez barier wejściowych

GPU H200 dostępne dla wszystkich: od proof of concept do wdrożenia w produkcji, bez zobowiązań dotyczących wolumenu ani ograniczeń sprzętowych.

Jak wybrać GPU do inferencji?

Modele kompaktowe

Do 7 B parametrów, A100 oferuje doskonały stosunek wydajności do ceny.

Modele dużych rozmiarów

Od 65 B+ lub rozszerzonych okien kontekstowych, H200 zapewnia niezbędną przepustowość pamięci dla stabilnych czasów odpowiedzi.

Najczęściej zadawane pytania

Jakie zaangażowanie w poziom usług (SLA) jest gwarantowane przez OVHcloud na instancji GPU?

Zaangażowanie w poziom usług (SLA) wynosi 99,99% miesięcznej dostępności na instancjach GPU. Więcej informacji znajdziesz w Regulaminie dotyczącym świadczenia usług.

Jaki hiperwizor używany jest do wirtualizacji instancji?

Instancje GPU, podobnie jak inne instancje, są wirtualizowane za pomocą hiperwizora KVM, który jest częścią jądra systemu Linux.

Co to jest PCI Passthrough?

Karty wyposażone w procesory graficzne są obsługiwane przez magistralę PCI fizycznego serwera. PCI Passthrough to funkcja hiperwizora, która umożliwia przypisanie sprzętu do maszyny wirtualnej dzięki bezpośredniemu dostępowi do magistrali PCI, z pominięciem warstwy wirtualizacji.

Czy mogę zmienić rozmiar instancji Cloud GPU?

Tak, możesz zmienić model instancji Cloud GPU na wyższy po jego ponownym uruchomieniu. Nie możesz jednak zmienić go na model niższy.

Czy instancje Cloud GPU objęte są ochroną Anty-DDoS?

Tak, ochrona Anty-DDoS jest zawarta we wszystkich rozwiązaniach OVHcloud bez dodatkowych kosztów.

Czy mogę zmienić rozliczenie za instancję z miesięcznego na godzinowe?

Jeśli wybrałeś rozliczenie miesięczne, nie możesz już go zmienić na rozliczenie godzinowe. Przed uruchomieniem instancji, starannie wybierz model rozliczenia najlepiej dopasowany do Twojego projektu.

Co to jest Cloud GPU?

Cloud GPU to usługa obliczeniowa w chmurze, która dostarcza procesory graficzne (GPU) do wykonywania zadań wymagających dużej mocy obliczeniowej. Zadania te mogą obejmować renderowanie graficzne, uczenie maszynowe, analizę danych oraz symulacje naukowe. W przeciwieństwie do lokalnych GPU, które wymagają znacznych inwestycji w sprzęt, Cloud GPU zapewnia elastyczność i skalowalność. Dzięki temu użytkownicy mogą korzystać z zasobów obliczeniowych o wysokiej wydajności na żądanie i płacić tylko za te, które wykorzystają.

Co to są serwery H100 i A100?

Serwery wyposażone w procesory graficzne NVIDIA H100 i A100 zapewniają wyjątkową wydajność obliczeń (HPC), sztucznej inteligencji (AI) i analizy danych.

Co to jest NGC?

NVIDIA GPU Cloud (NGC) to platforma cloud computing oferowana przez firmę NVIDIA. Zapewnia kompletny katalog oprogramowania zoptymalizowanego pod kątem akceleracji GPU dla sztucznej inteligencji (AI), uczenia maszynowego (ML) i obliczeń o wysokiej wydajności (HPC). Zadaniem NGC jest uproszczenie i przyspieszenie wdrażania aplikacji AI oraz obliczeń naukowych poprzez dostarczanie kontenerów, wstępnie wytrenowanych modeli, zestawów SDK i innych narzędzi, które są zoptymalizowane, aby w pełni wykorzystać możliwości procesorów graficznych NVIDIA.

Dlaczego warto wybrać Cloud GPU?

Zastosowanie Cloud GPU ma wiele zalet, zwłaszcza dla firm, zespołów badawczych i deweloperów, którzy działają w wymagających dziedzinach, takich jak sztuczna inteligencja (AI), renderowanie graficzne, uczenie maszynowe (ML) i obliczenia o wysokiej wydajności (HPC).