custom background image

Instancje GPU H100


Przyspiesz swoje projekty AI z instancjami GPU H100

Najwyższa wydajność dla treningu, wnioskowania i najbardziej wymagających obciążeń danych — w europejskiej chmurze, niezawodnej i przejrzystej.

Dlaczego warto wybrać GPU NVIDIA H100?

Potężne

Do 4× szybsze niż A100 w treningu złożonych modeli AI i generowaniu treści.

Wydajność.

Silnik Transformer FP8 optymalizuje obliczenia dla LLM i GenAI, oferując znaczący wzrost wydajności i oszczędności energii.

obsługiwane

Całkowicie kompatybilne z CUDA, PyTorch, TensorFlow i JAX: wykorzystaj swoje istniejące optymalizacje bez adaptacji.

Suwerenny

Dostępne w naszej Public Cloud, zapewniając elastyczność, przejrzystość i zgodność z europejskimi normami.

Optymalizowane dla Twoich obciążeń IA i danych

Szkolenie i wnioskowanie LLM

Przyspiesz swoje modele do 70B parametrów (Llama 2, Mistral, Falcon itd.) dzięki mocy Transformer Engine i przepustowości pamięci H100.

Multimodalna IA generatywna

Twórz, trenuj i wdrażaj swoje modele generacji obrazów, dźwięku i wideo na dużą skalę, z pełną płynnością.

Nauka o danych i HPC

Optymalizuj swoje intensywne obliczenia: symulacje, modelowanie naukowe lub masowe przetwarzanie równoległe — z stałymi wydajnościami i niską latencją.

SPECYFIKACJA

Specyfikacja techniczna

GPU

Od 1 do 4 GPU per instancja

Pamięć GPU

80 GB ultra-szybkiej pamięci HBM3 na GPU

Wydajna przestrzeń dyskowa

NVMe Passthrough lokalnie na większości instancji

Sieć publiczna i prywatna

Do 25 Gbps w cenie

Automatyzacja

Zarządzanie przez Twoją przestrzeń klienta, API, OVHcloud CLI, ...

Bezpieczeństwo i poufność

Certyfikaty ISO27001, SOC, dane medyczne, etc.

Zmaksymalizuj swój ROI dzięki elastycznej infrastrukturze GPU

Przejrzystość cenowa

Płać tylko za zasoby, które wykorzystujesz, bez ukrytych opłat. Zachowujesz kontrolę nad swoimi kosztami, ciesząc się jednocześnie optymalną wydajnością.

Natychmiastowa skalowalność

Zwiększaj lub zmniejszaj swoje zasoby GPU na żądanie, w kilka kliknięć. Dostosuj swoją pojemność do obciążeń AI i danych z łatwością.

Suwerenność i zgodność

Twoje dane są hostowane na certyfikowanej europejskiej chmurze, zapewniając bezpieczeństwo, przejrzystość i zgodność z regulacjami (RODO, ISO, HDS).

Dostępność bez barier wejścia

GPU H100 dostępne dla wszystkich: od dowodu koncepcji po wdrożenie w produkcji, bez zobowiązań dotyczących wolumenu ani ograniczeń sprzętowych.

Jak wybrać GPU do inferencji?

Kompaktowe modele

Do 7B parametrów, A100 oferuje doskonały stosunek wydajności do ceny.

Średnie LLM

Do 30B, H100 to najlepsza równowaga między prędkością, efektywnością energetyczną a kompatybilnością frameworków.

Duże modele

Od 65B+ lub rozszerzonych okien kontekstowych, H200 zapewnia niezbędną przepustowość pamięci dla stabilnych czasów odpowiedzi.

Najczęściej zadawane pytania

Jaki poziom SLA jest gwarantowany przez OVHcloud w przypadku instancji GPU?

Dostępność instancji GPU w skali miesiąca wynosi 99,99%. Więcej informacji znajdziesz w regulaminach dotyczących świadczenia usług.

Jaki hiperwizor używany jest do wirtualizacji instancji?

Instancje GPU, podobnie jak inne instancje, są wirtualizowane za pomocą hiperwizora KVM, który jest częścią jądra systemu Linux.

Co to jest PCI Passthrough?

Karty wyposażone w procesory graficzne są obsługiwane przez magistralę PCI fizycznego serwera. PCI Passthrough to funkcja hiperwizora, która umożliwia przypisanie sprzętu do maszyny wirtualnej dzięki bezpośredniemu dostępowi do magistrali PCI, z pominięciem warstwy wirtualizacji.

Czy mogę zmienić rozmiar instancji Cloud GPU?

Tak, możesz zmienić model instancji Cloud GPU na wyższy po jego ponownym uruchomieniu. Nie możesz jednak zmienić go na model niższy.

Czy instancje Cloud GPU objęte są ochroną Anty-DDoS?

Tak, ochrona Anty-DDoS jest zawarta we wszystkich rozwiązaniach OVHcloud bez dodatkowych kosztów.

Czy mogę zmienić rozliczenie za instancję z miesięcznego na godzinowe?

Jeśli wybrałeś rozliczenie miesięczne, nie możesz już go zmienić na rozliczenie godzinowe. Pamiętaj, aby przed uruchomieniem instancji wybrać model rozliczenia najlepiej dopasowany do Twojego projektu.

Co to jest Cloud GPU?

Cloud GPU to usługa obliczeniowa w chmurze, która dostarcza procesory graficzne (GPU) do wykonywania zadań wymagających dużej mocy obliczeniowej. Zadania te mogą obejmować renderowanie graficzne, uczenie maszynowe, analizę danych oraz symulacje naukowe. W przeciwieństwie do lokalnych GPU, które wymagają znacznych inwestycji w sprzęt, Cloud GPU zapewnia elastyczność i skalowalność. Dzięki temu użytkownicy mogą korzystać z zasobów obliczeniowych o wysokiej wydajności na żądanie i płacić tylko za te, które wykorzystają.

Co to są serwery H100 i A100?

Serwery wyposażone w procesory graficzne NVIDIA H100 i A100 zapewniają wyjątkową wydajność obliczeń (HPC), sztucznej inteligencji (AI) i analizy danych.

Co to jest NGC?

NVIDIA GPU Cloud (NGC) to platforma cloud computing oferowana przez firmę NVIDIA. Zapewnia kompletny katalog oprogramowania zoptymalizowanego pod kątem akceleracji GPU dla sztucznej inteligencji (AI), uczenia maszynowego (ML) i obliczeń o wysokiej wydajności (HPC). Zadaniem NGC jest uproszczenie i przyspieszenie wdrażania aplikacji AI oraz obliczeń naukowych poprzez dostarczanie kontenerów, wstępnie wytrenowanych modeli, zestawów SDK i innych narzędzi, które są zoptymalizowane, aby w pełni wykorzystać możliwości procesorów graficznych NVIDIA.

Dlaczego warto wybrać Cloud GPU?

Zastosowanie Cloud GPU ma wiele zalet, zwłaszcza dla firm, naukowców i deweloperów, którzy działają w wymagających dziedzinach, takich jak sztuczna inteligencja (AI), renderowanie graficzne, uczenie maszynowe (ML) i obliczenia o wysokiej wydajności (HPC).