
Serwery w chmurze zaprojektowane z myślą o masowym przetwarzaniu równoległym
Instancje GPU wyposażone są w wydajne procesory graficzne NVIDIA Tesla V100S, aby sprostać wymaganiom masowych obliczeń równoległych. Instancje GPU, jako część oferty Public Cloud, to połączenie zalet zasobów dostarczanych na żądanie z wygodą rozliczenia za godzinę. Są to serwery w chmurze idealne do uczenia głębokiego i maszynowego.
GPU NVIDIA Tesla V100S
Instancje GPU od OVHcloud są przeznaczone do pracy w środowisku data center. Przyspieszają obliczenia związane z wykorzystaniem sztucznej inteligencji (AI) i przetwarzania obrazów.
NVIDIA GPU Cloud
Aby zapewnić najwyższy komfort użytkowania rozwiązań, OVHcloud i NVIDIA wspólnie przygotowały akcelerowaną układami GPU platformę pod nowatorskie zastosowania, takie jak Deep Learning, obliczenia o wysokiej wydajności oraz sztuczna inteligencja. Jest to najprostszy sposób wdrożenia i utrzymania gotowych do użycia kontenerów, akcelerowanych układami GPU z kompleksowego katalogu aplikacji Deep Learning dostarczanych przez NVIDIA GPU CLOUD. Dowiedz się więcej.
Od 1 do 4 kart o gwarantowanej wydajności
Karty Tesla są podłączone bezpośrednio do instancji za pośrednictwem PCI Passthrough, bez warstwy wirtualizacji, dzięki czemu cała ich wydajność jest w pełni dedykowana do Twoich zastosowań. Aby jeszcze bardziej zwiększyć wydajność, możesz podłączyć do instancji do 4 kart. W ten sposób urządzenia fizyczne zapewniają Twojej aplikacji pełną moc obliczeniową.
Certyfikaty ISO/IEC 27001, 27701 i HDS
Nasza infrastruktura i usługi w chmurze posiadają certyfikaty ISO/IEC 27001, 27017, 27018 i 27701. Stanowią one gwarancję, że wdrożony został system zarządzania bezpieczeństwem informacji (ang. ISMS) umożliwiający zarządzanie ryzykiem podatnościami i ciągłością działania oraz system zarządzania informacjami o prywatności (ang. PIMS). Certyfikat HDS umożliwia bezpieczne hostowanie danych medycznych w wielu krajach.
Parametry NVIDIA Tesla V100S
Wydajność z technologią NVIDIA GPU Boost: |
Przepustowość dwukierunkowa złącza: |
Pamięć CoWoS Stacked HBM2: |
---|---|---|
|
|
|
Przykłady zastosowania
Rozpoznawanie obrazów
Wyodrębnianie informacji z obrazów w celu ich klasyfikacji, identyfikacja poszczególnych elementów lub tworzenie bogatszych dokumentów jest niezwykle przydatne w wielu dziedzinach. Obrazowanie medyczne, sieci społecznościowe, ochrona i bezpieczeństwo publiczne - dzięki frameworkom, takim jak Caffe2 połączonym z GPU Tesla V100S, wszystko to staje się możliwe i łatwo dostępne.
Analiza sytuacji
W zmieniającym się środowisku i w nieprzewidywalnych sytuacjach wymagana jest często reakcja w czasie rzeczywistym. Dzieje się tak w przypadku autonomicznych samochodów czy podczas analizy ruchu sieciowego. W tych właśnie obszarach mają zastosowanie aplikacje Deep Learning, które tworzą sieci neuronowe uczące się reagować na takie sytuacje w fazie treningu.
Interakcja człowieka z maszyną
W przeszłości człowiek nauczył się komunikować z maszynami. Obecnie żyjemy w w czasach, kiedy maszyny uczą się komunikować z ludźmi. Narzędzia takie, jak TensorFlow, czy to poprzez rozpoznawanie głosu, czy identyfikację emocji za pomocą dźwięku i wideo, mogą przesuwać granice tych interakcji i otwierać przed nami nowe możliwości.
Szukasz rozwiązania do trenowania sztucznej inteligencji za pomocą GPU?
Dzięki rozwiązaniu AI Training możesz efektywnie i w prosty sposób trenować modele sztucznej inteligencji i optymalizować zasoby obliczeniowe GPU.
Skup się na sednie Twojej działalności, a my zajmiemy się infrastrukturą. Uruchom treningi za pomocą wiersza poleceń i płać za wykorzystane zasoby w modelu rozliczenia za minutę.
Wdrożenie
Zacznij teraz
Uruchom Twoją instancję, wybierając odpowiedni model T2 i obraz NGC.
Konfiguruj
$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t2
Korzystaj
Twój framework AI jest gotowy do rozpoczęcia obliczeń.



Płatność za instancje GPU
Instancje GPU są rozliczane jak wszystkie inne instancje OVHcloud - w modelu pay-as-you-go na koniec miesiąca. Cena zależy od rozmiaru uruchomionej instancji i czasu jej wykorzystania.
Inne produkty
Odpowiedzi na Twoje pytania
Jaki poziom SLA OVHcloud gwarantuje w zakresie dostępności instancji GPU?
Dostępność miesięczna instancji GPU wynosi 99,999%. Więcej informacji znajdziesz w regulaminach dotyczących świadczenia usług.
Jaki hiperwizor używany jest do wirtualizacji instancji?
Instancje GPU, podobnie jak inne instancje, są wirtualizowane za pomocą hiperwizora KVM, który jest częścią jądra systemu Linux.
Co to jest PCI Passthrough?
Karty wyposażone w procesory graficzne są obsługiwane przez magistralę PCI fizycznego serwera. PCI Passthrough to funkcja hiperwizora, która umożliwia przypisanie sprzętu do maszyny wirtualnej dzięki bezpośredniemu dostępowi do magistrali PCI, z pominięciem warstwy wirtualizacji.
Czy mogę zmienić rozmiar instancji GPU?
Tak, możesz zmienić model instancji GPU na wyższy po jego ponownym uruchomieniu. Nie możesz jednak zmienić go na model niższy.
Czy instancje GPU objęte są ochroną Anty-DDoS?
Tak, ochrona Anty-DDoS jest zawarta we wszystkich rozwiązaniach OVHcloud bez dodatkowych kosztów.
Czy mogę zmienić, w trakcie danego miesiąca, rozliczenie za instancję z miesięcznego na godzinowe?
Jeśli wybrałeś rozliczenie miesięczne, nie możesz go zmienić na rozliczenie godzinowe, jeśli dany miesiąc już trwa. Pamiętaj, aby przed uruchomieniem instancji wybrać model rozliczenia najlepiej dopasowany do Twojego projektu.