Instancje GPU H100
Przyspiesz swoje projekty AI z instancjami GPU H100
Najwyższa wydajność dla treningu, wnioskowania i najbardziej wymagających obciążeń danych — w europejskiej chmurze, niezawodnej i przejrzystej.
Dlaczego warto wybrać GPU NVIDIA H100?
Potężne
Do 4× szybsze niż A100 w treningu złożonych modeli AI i generowaniu treści.
Wydajność.
Silnik Transformer FP8 optymalizuje obliczenia dla LLM i GenAI, oferując znaczący wzrost wydajności i oszczędności energii.
obsługiwane
Całkowicie kompatybilne z CUDA, PyTorch, TensorFlow i JAX: wykorzystaj swoje istniejące optymalizacje bez adaptacji.
Suwerenny
Dostępne w naszej Public Cloud, zapewniając elastyczność, przejrzystość i zgodność z europejskimi normami.
Optymalizowane dla Twoich obciążeń IA i danych
Szkolenie i wnioskowanie LLM
Przyspiesz swoje modele do 70B parametrów (Llama 2, Mistral, Falcon itd.) dzięki mocy Transformer Engine i przepustowości pamięci H100.
Multimodalna IA generatywna
Twórz, trenuj i wdrażaj swoje modele generacji obrazów, dźwięku i wideo na dużą skalę, z pełną płynnością.
Nauka o danych i HPC
Optymalizuj swoje intensywne obliczenia: symulacje, modelowanie naukowe lub masowe przetwarzanie równoległe — z stałymi wydajnościami i niską latencją.
SPECYFIKACJA
Specyfikacja techniczna
GPU
Od 1 do 4 GPU per instancja
Pamięć GPU
80 GB ultra-szybkiej pamięci HBM3 na GPU
Wydajna przestrzeń dyskowa
NVMe Passthrough lokalnie na większości instancji
Sieć publiczna i prywatna
Do 25 Gbps w cenie
Automatyzacja
Zarządzanie przez Twoją przestrzeń klienta, API, OVHcloud CLI, ...
Bezpieczeństwo i poufność
Certyfikaty ISO27001, SOC, dane medyczne, etc.
Zmaksymalizuj swój ROI dzięki elastycznej infrastrukturze GPU
Przejrzystość cenowa
Płać tylko za zasoby, które wykorzystujesz, bez ukrytych opłat. Zachowujesz kontrolę nad swoimi kosztami, ciesząc się jednocześnie optymalną wydajnością.
Natychmiastowa skalowalność
Zwiększaj lub zmniejszaj swoje zasoby GPU na żądanie, w kilka kliknięć. Dostosuj swoją pojemność do obciążeń AI i danych z łatwością.
Suwerenność i zgodność
Twoje dane są hostowane na certyfikowanej europejskiej chmurze, zapewniając bezpieczeństwo, przejrzystość i zgodność z regulacjami (RODO, ISO, HDS).
Dostępność bez barier wejścia
GPU H100 dostępne dla wszystkich: od dowodu koncepcji po wdrożenie w produkcji, bez zobowiązań dotyczących wolumenu ani ograniczeń sprzętowych.
Jak wybrać GPU do inferencji?
Kompaktowe modele
Do 7B parametrów, A100 oferuje doskonały stosunek wydajności do ceny.
Średnie LLM
Do 30B, H100 to najlepsza równowaga między prędkością, efektywnością energetyczną a kompatybilnością frameworków.
Duże modele
Od 65B+ lub rozszerzonych okien kontekstowych, H200 zapewnia niezbędną przepustowość pamięci dla stabilnych czasów odpowiedzi.
Konfiguruj instancje GPU
Najczęściej zadawane pytania
Jaki poziom SLA jest gwarantowany przez OVHcloud w przypadku instancji GPU?
Dostępność instancji GPU w skali miesiąca wynosi 99,99%. Więcej informacji znajdziesz w regulaminach dotyczących świadczenia usług.
Jaki hiperwizor używany jest do wirtualizacji instancji?
Instancje GPU, podobnie jak inne instancje, są wirtualizowane za pomocą hiperwizora KVM, który jest częścią jądra systemu Linux.
Co to jest PCI Passthrough?
Karty wyposażone w procesory graficzne są obsługiwane przez magistralę PCI fizycznego serwera. PCI Passthrough to funkcja hiperwizora, która umożliwia przypisanie sprzętu do maszyny wirtualnej dzięki bezpośredniemu dostępowi do magistrali PCI, z pominięciem warstwy wirtualizacji.
Czy mogę zmienić rozmiar instancji Cloud GPU?
Tak, możesz zmienić model instancji Cloud GPU na wyższy po jego ponownym uruchomieniu. Nie możesz jednak zmienić go na model niższy.
Czy instancje Cloud GPU objęte są ochroną Anty-DDoS?
Tak, ochrona Anty-DDoS jest zawarta we wszystkich rozwiązaniach OVHcloud bez dodatkowych kosztów.
Czy mogę zmienić rozliczenie za instancję z miesięcznego na godzinowe?
Jeśli wybrałeś rozliczenie miesięczne, nie możesz już go zmienić na rozliczenie godzinowe. Pamiętaj, aby przed uruchomieniem instancji wybrać model rozliczenia najlepiej dopasowany do Twojego projektu.
Co to jest Cloud GPU?
Cloud GPU to usługa obliczeniowa w chmurze, która dostarcza procesory graficzne (GPU) do wykonywania zadań wymagających dużej mocy obliczeniowej. Zadania te mogą obejmować renderowanie graficzne, uczenie maszynowe, analizę danych oraz symulacje naukowe. W przeciwieństwie do lokalnych GPU, które wymagają znacznych inwestycji w sprzęt, Cloud GPU zapewnia elastyczność i skalowalność. Dzięki temu użytkownicy mogą korzystać z zasobów obliczeniowych o wysokiej wydajności na żądanie i płacić tylko za te, które wykorzystają.
Co to są serwery H100 i A100?
Serwery wyposażone w procesory graficzne NVIDIA H100 i A100 zapewniają wyjątkową wydajność obliczeń (HPC), sztucznej inteligencji (AI) i analizy danych.
Co to jest NGC?
NVIDIA GPU Cloud (NGC) to platforma cloud computing oferowana przez firmę NVIDIA. Zapewnia kompletny katalog oprogramowania zoptymalizowanego pod kątem akceleracji GPU dla sztucznej inteligencji (AI), uczenia maszynowego (ML) i obliczeń o wysokiej wydajności (HPC). Zadaniem NGC jest uproszczenie i przyspieszenie wdrażania aplikacji AI oraz obliczeń naukowych poprzez dostarczanie kontenerów, wstępnie wytrenowanych modeli, zestawów SDK i innych narzędzi, które są zoptymalizowane, aby w pełni wykorzystać możliwości procesorów graficznych NVIDIA.
Dlaczego warto wybrać Cloud GPU?
Zastosowanie Cloud GPU ma wiele zalet, zwłaszcza dla firm, naukowców i deweloperów, którzy działają w wymagających dziedzinach, takich jak sztuczna inteligencja (AI), renderowanie graficzne, uczenie maszynowe (ML) i obliczenia o wysokiej wydajności (HPC).