Instancje GPU H200
Przyspiesz swoje projekty AI z instancjami GPU H200
Najwyższa wydajność dla treningu, wnioskowania i najbardziej wymagających obciążeń danych w europejskiej chmurze, niezawodnej i przejrzystej.
Dlaczego warto wybrać GPU NVIDIA H200?
Potężne
Do 1,4 × szybszy niż H100 w treningu i wnioskowaniu modeli GenAI.
Wydajność.
141 GB ultra szybkiej pamięci HBM3e: 2 × większa przepustowość pamięci, idealna dla dużych modeli.
obsługiwane
Kompatybilny z H100: wykorzystaj swoje istniejące frameworki i optymalizacje bez skomplikowanej migracji.
Suwerenny
Dostępne w naszej Public Cloud, zapewniając elastyczność, przejrzystość i zgodność z europejskimi normami.
Optymalizowane pod kątem obciążeń roboczych AI i danych
LLM o bardzo dużej skali
Trenuj i wdrażaj modele do 175 B parametrów (GPT-3, Llama 3, Falcon 180 B) dzięki 141 GB pamięci HBM3e i przepustowości 4,8 TB/s.
Zaawansowana sztuczna inteligencja generatywna
Generuj tekst, obraz, dźwięk i wideo z stabilnymi czasami odpowiedzi, nawet w długich kontekstach.
Rozszerzony kontekst i RAG
Ulepsz swoich asystentów AI i chatboty z długimi oknami kontekstowymi.
Specyfikacja
Specyfikacja techniczna
GPU
Od 1 do 8 GPU per instancja
Pamięć GPU
141 GB ultra szybkiej pamięci HBM3 na GPU
Wydajna przestrzeń dyskowa
Passthrough NVMe lokalny w większości instancji
Sieć publiczna i prywatna
Do 25 Gbps w cenie
Automatyzacja
Zarządzanie przez Twoje konto, API, OVHcloud CLI…
Bezpieczeństwo i poufność
Certyfikaty ISO27001, SOC, hosting danych zdrowotnych…
Zmaksymalizuj swój ROI dzięki elastycznej infrastrukturze GPU
Przejrzystość cenowa
Płać tylko za zasoby, które wykorzystujesz, bez ukrytych opłat. Zachowujesz kontrolę nad swoimi kosztami, ciesząc się jednocześnie optymalną wydajnością.
Natychmiastowa skalowalność
Zwiększaj lub zmniejszaj swoje zasoby GPU na żądanie, w kilka kliknięć. Dostosuj swoją pojemność do obciążeń AI i danych z łatwością.
Suwerenność i zgodność
Twoje dane są hostowane w certyfikowanej europejskiej chmurze, zapewniając bezpieczeństwo, przejrzystość i przestrzeganie regulacji (RODO, ISO, HDS).
Dostępność bez barier wejściowych
GPU H200 dostępne dla wszystkich: od proof of concept do wdrożenia w produkcji, bez zobowiązań dotyczących wolumenu ani ograniczeń sprzętowych.
Jak wybrać GPU do inferencji?
Modele kompaktowe
Do 7 B parametrów, A100 oferuje doskonały stosunek wydajności do ceny.
Modele dużych rozmiarów
Od 65 B+ lub rozszerzonych okien kontekstowych, H200 zapewnia niezbędną przepustowość pamięci dla stabilnych czasów odpowiedzi.
Konfiguruj instancje GPU
Najczęściej zadawane pytania
Jakie zaangażowanie w poziom usług (SLA) jest gwarantowane przez OVHcloud na instancji GPU?
Zaangażowanie w poziom usług (SLA) wynosi 99,99% miesięcznej dostępności na instancjach GPU. Więcej informacji znajdziesz w Regulaminie dotyczącym świadczenia usług.
Jaki hiperwizor używany jest do wirtualizacji instancji?
Instancje GPU, podobnie jak inne instancje, są wirtualizowane za pomocą hiperwizora KVM, który jest częścią jądra systemu Linux.
Co to jest PCI Passthrough?
Karty wyposażone w procesory graficzne są obsługiwane przez magistralę PCI fizycznego serwera. PCI Passthrough to funkcja hiperwizora, która umożliwia przypisanie sprzętu do maszyny wirtualnej dzięki bezpośredniemu dostępowi do magistrali PCI, z pominięciem warstwy wirtualizacji.
Czy mogę zmienić rozmiar instancji Cloud GPU?
Tak, możesz zmienić model instancji Cloud GPU na wyższy po jego ponownym uruchomieniu. Nie możesz jednak zmienić go na model niższy.
Czy instancje Cloud GPU objęte są ochroną Anty-DDoS?
Tak, ochrona Anty-DDoS jest zawarta we wszystkich rozwiązaniach OVHcloud bez dodatkowych kosztów.
Czy mogę zmienić rozliczenie za instancję z miesięcznego na godzinowe?
Jeśli wybrałeś rozliczenie miesięczne, nie możesz już go zmienić na rozliczenie godzinowe. Przed uruchomieniem instancji, starannie wybierz model rozliczenia najlepiej dopasowany do Twojego projektu.
Co to jest Cloud GPU?
Cloud GPU to usługa obliczeniowa w chmurze, która dostarcza procesory graficzne (GPU) do wykonywania zadań wymagających dużej mocy obliczeniowej. Zadania te mogą obejmować renderowanie graficzne, uczenie maszynowe, analizę danych oraz symulacje naukowe. W przeciwieństwie do lokalnych GPU, które wymagają znacznych inwestycji w sprzęt, Cloud GPU zapewnia elastyczność i skalowalność. Dzięki temu użytkownicy mogą korzystać z zasobów obliczeniowych o wysokiej wydajności na żądanie i płacić tylko za te, które wykorzystają.
Co to są serwery H100 i A100?
Serwery wyposażone w procesory graficzne NVIDIA H100 i A100 zapewniają wyjątkową wydajność obliczeń (HPC), sztucznej inteligencji (AI) i analizy danych.
Co to jest NGC?
NVIDIA GPU Cloud (NGC) to platforma cloud computing oferowana przez firmę NVIDIA. Zapewnia kompletny katalog oprogramowania zoptymalizowanego pod kątem akceleracji GPU dla sztucznej inteligencji (AI), uczenia maszynowego (ML) i obliczeń o wysokiej wydajności (HPC). Zadaniem NGC jest uproszczenie i przyspieszenie wdrażania aplikacji AI oraz obliczeń naukowych poprzez dostarczanie kontenerów, wstępnie wytrenowanych modeli, zestawów SDK i innych narzędzi, które są zoptymalizowane, aby w pełni wykorzystać możliwości procesorów graficznych NVIDIA.
Dlaczego warto wybrać Cloud GPU?
Zastosowanie Cloud GPU ma wiele zalet, zwłaszcza dla firm, zespołów badawczych i deweloperów, którzy działają w wymagających dziedzinach, takich jak sztuczna inteligencja (AI), renderowanie graficzne, uczenie maszynowe (ML) i obliczenia o wysokiej wydajności (HPC).