public cloud compute  gpu

Serwery w chmurze zaprojektowane z myślą o masowym przetwarzaniu równoległym

Instancje GPU wyposażone są w wydajne procesory graficzne NVIDIA Tesla V100, aby sprostać wymaganiom masowych obliczeń równoległych. Instancje GPU, jako część oferty Public Cloud, to połączenie zalet zasobów dostarczanych na żądanie z wygodą rozliczenia za godzinę. Są to serwery w chmurze idealne do uczenia głębokiego i maszynowego.

GPU NVIDIA Tesla V100

Instancje GPU od OVHcloud są przeznaczone do pracy w środowisku data center. Przyspieszają obliczenia związane z wykorzystaniem sztucznej inteligencji (AI) i przetwarzania obrazów.

NVIDIA GPU Cloud

Aby zapewnić najwyższy komfort użytkowania rozwiązań, OVHcloud i NVIDIA wspólnie przygotowały akcelerowaną układami GPU platformę pod nowatorskie zastosowania, takie jak Deep Learning, obliczenia o wysokiej wydajności oraz sztuczna inteligencja. Jest to najprostszy sposób wdrożenia i utrzymania gotowych do użycia kontenerów, akcelerowanych układami GPU z kompleksowego katalogu aplikacji Deep Learning dostarczanych przez NVIDIA GPU CLOUD. Dowiedz się więcej.

Od 1 do 4 kart o gwarantowanej wydajności

Karty Tesla są podłączone bezpośrednio do instancji za pośrednictwem PCI Passthrough, bez warstwy wirtualizacji, dzięki czemu cała ich wydajność jest w pełni dedykowana do Twoich zastosowań. Aby jeszcze bardziej zwiększyć wydajność, możesz podłączyć do instancji do 4 kart. W ten sposób urządzenia fizyczne zapewniają Twojej aplikacji pełną moc obliczeniową.

Icons/concept/Page/Page Certificate Created with Sketch.

Certyfikaty ISO/IEC 27001, 27701 i HDS

Nasze infrastruktury i usługi w chmurze posiadają certyfikaty ISO/IEC 27001, 27017, 27018 i 27701. Stanowią one gwarancję, że wdrożony został system zarządzania bezpieczeństwem informacji (ang. ISMS) umożliwiający zarządzanie ryzkiem podatnościami i ciągłością działania oraz system zarządzania informacjami o prywatności (ang. PIMS). Francuski certyfikat HDS umożliwia bezpieczne hostowanie danych medycznych w wielu krajach.

* Dostępne wkrótce

Parametry NVIDIA Tesla V100

Wydajność z technologią NVIDIA GPU Boost:

Przepustowość dwukierunkowa złącza:

Pamięć CoWoS Stacked HBM2:
  • double-precision 7 teraFLOPS;
  • single-precision 14 teraFLOPS;
  • deep learning 112 teraFLOPS.
  • PCIe 32 GB/s.
  • pojemność, 16 GB HBM2 ;
  • przepustowość, 900 GB/s.

 

Przykłady zastosowania

Rozpoznawanie obrazów

Wyodrębnianie informacji z obrazów w celu ich klasyfikacji, identyfikacja poszczególnych elementów lub tworzenie bogatszych dokumentów jest niezwykle przydatne w wielu dziedzinach. Obrazowanie medyczne, sieci społecznościowe, ochrona i bezpieczeństwo publiczne - dzięki frameworkom, takim jak Caffe2 połączonym z GPU Tesla V100, wszystko to staje się możliwe i łatwo dostępne.

Analiza sytuacji

W zmieniającym się środowisku i w nieprzewidywalnych sytuacjach wymagana jest często reakcja w czasie rzeczywistym. Dzieje się tak w przypadku autonomicznych samochodów czy podczas analizy ruchu sieciowego. W tych właśnie obszarach mają zastosowanie aplikacje Deep Learning, które tworzą sieci neuronowe uczące się reagować na takie sytuacje w fazie treningu.

Interakcja człowieka z maszyną

W przeszłości człowiek nauczył się komunikować z maszynami. Obecnie żyjemy w w czasach, kiedy maszyny uczą się komunikować z ludźmi. Narzędzia takie, jak TensorFlow, czy to poprzez rozpoznawanie głosu, czy identyfikację emocji za pomocą dźwięku i wideo, mogą przesuwać granice tych interakcji i otwierać przed nami nowe możliwości.

Szukasz rozwiązania do trenowania sztucznej inteligencji za pomocą GPU?

Dzięki rozwiązaniu AI Training możesz efektywnie i w prosty sposób trenować modele sztucznej inteligencji i optymalizować zasoby obliczeniowe GPU.

Skup się na sednie Twojej działalności, a my zajmiemy się infrastrukturą. Uruchom treningi za pomocą wiersza poleceń i płać za wykorzystane zasoby w modelu rozliczenia za minutę.

Poznaj OVHcloud AI Training

Wdrożenie

1

Zacznij teraz

Uruchom Twoją instancję, wybierając odpowiedni model T1 i obraz NGC.

2

Konfiguruj

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Korzystaj

Twój framework AI jest gotowy do rozpoczęcia obliczeń.

Rozpocznij pracę na Public Cloud

Załóż konto i zacznij od razu korzystać z usług

Pricing Public Cloud

Płatność za instancje GPU

Instancje GPU są rozliczane jak wszystkie inne instancje OVH - w modelu pay-as-you-go na koniec miesiąca. Cena zależy od rozmiaru uruchomionej instancji i czasu jej wykorzystania.

FAQ

Jaki poziom SLA OVHcloud gwarantuje w zakresie dostępności instancji GPU?

Dostępność miesięczna instancji GPU wynosi 99,999%. Więcej informacji znajdziesz w regulaminach dotyczących świadczenia usług.

Jaki hiperwizor używany jest do wirtualizacji instancji?

Instancje GPU, podobnie jak inne instancje, są wirtualizowane za pomocą hiperwizora KVM, który jest częścią jądra systemu Linux.

Co to jest PCI Passthrough?

Karty wyposażone w procesory graficzne są obsługiwane przez magistralę PCI fizycznego serwera. PCI Passthrough to funkcja hiperwizora, która umożliwia przypisanie sprzętu do maszyny wirtualnej dzięki bezpośredniemu dostępowi do magistrali PCI, z pominięciem warstwy wirtualizacji.

Czy mogę zmienić rozmiar instancji GPU?

Tak, możesz zmienić model instancji GPU na wyższy po jego ponownym uruchomieniu. Nie możesz jednak zmienić go na model niższy.

Czy instancje GPU objęte są ochroną Anty-DDoS?

Tak, ochrona Anty-DDoS jest zawarta we wszystkich rozwiązaniach OVHcloud bez dodatkowych kosztów.

Czy mogę zmienić, w trakcie danego miesiąca, rozliczenie za instancję z miesięcznego na godzinowe?

Jeśli wybrałeś rozliczenie miesięczne, nie możesz go zmienić na rozliczenie godzinowe, jeśli dany miesiąc już trwa. Pamiętaj, aby przed uruchomieniem instancji wybrać model rozliczenia najlepiej dopasowany do Twojego projektu.