public cloud compute  gpu

Cloud-servers speciaal ontworpen voor massively parallel computing

De GPU-instances zijn uitgerust met NVIDIA Tesla V100S grafische processors om te voldoen aan de vereisten van massively parallel computing. Als deel van OVHcloud bieden ze voordelen als on-demand resources en facturering op uurbasis. Dit zijn cloud-servers die beantwoorden aan de behoeften van machine learning en deep learning.

Gebaseerd op NVIDIA Tesla V100S

Deze GPU, die een van de krachtigste op de markt is, is ontworpen voor gebruik in een datacenter. Hij versnelt berekeningen in bereiken als artificiële intelligence (AI) en grafische berekeningen.

NVIDIA GPU Cloud

Om optimaal gebruiksgemak te leveren, bieden OVHcloud en NVIDIA samen een ultiem krachtig, GPU-versneld platform aan voor deep learning, high-performance computing en artificiële intelligentie. Dit is de gemakkelijkste manier om GPU-versnelde containersystemen te implementeren en onderhouden via een uitgebreid assortiment. Meer informatie

Van 1 tot 4 kaarten met gegarandeerde prestaties

De Tesla kaarten worden direct zonder virtualisatielaag aan de instance geleverd via PCI Passthrough, zodat hun totale kracht gereserveerd is voor uw gebruik. Daarnaast kunnen tot maximaal 4 kaarten gekoppeld worden om hun prestaties te bundelen. Zo levert het materieel zijn volledige rekencapaciteit voor uw applicatie.

Icons/concept/Page/Page Certificate Created with Sketch.

Certificeringen voor ISO/IEC 27001, 27701 en compliance voor het hosten van gezondheidsgegevens

Onze cloudinfrastructuren en -services zijn gecertificeerd volgens ISO/IEC 27001, 27017, 27018 en 27701. Deze certificeringen garanderen dat er een informatiebeveiligingssysteem (“Information security management system” of ISMS) voor het managen van risico’s, kwetsbaarheden en de implementatie van maatregelen voor bedrijfscontinuïteit aanwezig is, en een managementsysteem voor persoonlijke informatie (“privacy information management system” of PIMS). Dankzij onze HDS-certificering kunt u veilig medische gegevens hosten.

Eigenschappen van de NVIDIA Tesla V100S

Prestaties met NVIDIA GPU Boost

Bandbreedte van bidirectionele verbinding

CoWoS Stacked HBM2 Geheugen
  • dubbele precisie, 7 teraFLOPS;
  • enkele precisie, 14 teraFLOPS;
  • deep learning, 112 teraFLOPS.
  • PCIe 32 GB/s.
  • capaciteit, 32 GB HBM2;
  • bandbreedte, 900 GB/s.

 

Use case

Beeldherkenning

Informatie uit afbeeldingen halen om ze in te delen, een onderdeel te identificeren of rijkere documenten te maken is in veel domeinen noodzakelijk. Medische beeldvorming, sociale netwerken, bescherming en publieke veiligheid... dankzij frameworks als Caffe2 gekoppeld aan de Tesla V100S GPU wordt dit mogelijk en zelfs makkelijk toegankelijk.

Situatieanalyse

Realtime is in bepaalde gevallen noodzakelijk, daar waar een passende reactie verwacht wordt op wisselende en onvoorspelbare situaties. Dit soort eisen treft men bijvoorbeeld aan bij zelfrijdende auto‘s of bij de analyse van internetdataverkeer. Daar wordt deep learning ingezet om neuronale netwerken te vormen die door middel van een trainingsetappe zelf leren.

Menselijke interactie

In het verleden heeft de mens geleerd met de machines te communiceren. Nu zijn we in het tijdperk waar de machines met de mens leren te communiceren. Of het nu gaat om stemherkenning of het identificeren van emoties met beeld en geluid, tools als Tensorflow schuiven de grenzen van deze interacties steeds verder op en openen een veelvoud aan nieuwe toepassingen.

Wilt u uw artificiële intelligentie kunnen trainen met GPU's?

Train efficiënt en simpel uw artificiële intelligentiemodellen en optimaliseer uw GPU-rekenresources met onze oplossing voor AI Training.

Concentreer u op uw activiteit in plaats van op de ondersteunende infrastructuur. Start uw trainingen via een commandoregel en betaal de gebruikte resources per minuut.

Bekijk OVHcloud AI Training

Gebruik

1

Starten

Start uw instance door het passende T2-model en NGC-image te kiezen.

2

Configureren

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t2

3

Gebruiken

Uw AI-framework is klaar om berekeningen te starten.

Klaar om te beginnen?

Maak een account aan en start uw services binnen een minuut

Public Cloud tarieven

Facturatie van GPU

De GPU instances worden net als al onze andere instances pay-as-you-go aan het eind van elke maand gefactureerd. De prijs is afhankelijk van de grootte van de gestarte instance en van de gebruiksduur.

Antwoorden op uw vragen

Welke SLA wordt door OVHcloud gegarandeerd voor een GPU-instance?

De maandelijkse beschikbaarheid in het SLA bedraagt 99,999 % voor GPU-instances. We verwijzen u voor meer informatie naar de algemene voorwaarden.

Welke hypervisor wordt gebruikt voor virtualisatie van instances?

Net als andere instances worden de GPU-instances gevirtualiseerd door de KVM-hypervisor uit de Linux-kernel.

Wat is PCI Passthrough?

Kaarten met grafische processors worden aangestuurd via de PCI-bus van de fysieke server. PCI Passthrough is een functie van de hypervisor waarmee een virtuele machine over dedicated hardware beschikt door een directe toegang tot de PCI-bus die niet via de virtualisatie loopt.

Kan de grootte van een GPU-instance veranderd worden?

Ja, GPU-instances kunnen na een herstart overschakelen naar een hoger model. Ze kunnen echter niet omgezet worden naar een lager model.

Beschikken GPU-instances over een Anti-DDoS bescherming?

Ja, onze anti-DDoS bescherming is zonder extra kosten inbegrepen bij alle OVHcloud-oplossingen.

Kan een instance, die nu maandelijks gefactureerd wordt, tijdens de maand omgezet worden naar een facturatie per uur?

Als er actueel per maand gefactureerd wordt, dan kan er niet tijdens de maand naar een facturatie per uur worden overgeschakeld. Kies voordat u de instance start zorgvuldig de geschiktste manier van factureren voor uw project.