public cloud compute  gpu

Server Cloud pensati per l’elaborazione di task paralleli massivi

Le istanze GPU dispongono di potenti processori grafici NVIDIA Tesla V100 per gestire intense attività di calcolo parallelo. Integrate nella soluzione OVHcloud, usufruiscono dei vantaggi delle risorse on demand e della fatturazione oraria. Sono server Cloud adatti alle esigenze tipiche di Machine Learning e Deep Learning.

GPU NVIDIA Tesla V100

Tra le più potenti sul mercato, queste GPU sono pensate per l'utilizzo nei datacenter in quanto accelerano i processi nel campo dell’Intelligenza Artificiale (IA) e del calcolo grafico.

NVIDIA GPU Cloud

Per offrire la migliore user experience possibile, OVHcloud e NVIDIA si sono unite per creare una piattaforma accelerata dalla GPU più performante per Deep Learning, calcolo a prestazioni elevate e Intelligenza Artificiale. È il modo più semplice per creare e mantenere container accelerati da GPU, grazie a un catalogo completo. Scopri di più

Da 1 a 4 schede con performance garantite

Le schede Tesla vengono integrate alle istanze direttamente via PCI Passthrough senza virtualizzazione, per permettere all’utente di usufruire di tutta la sua potenza. È possibile collegare fino a 4 schede e combinarne le prestazioni per fornire alle applicazioni la massima capacità di calcolo.

Icons/concept/Page/Page Certificate Created with Sketch.

Certificazioni ISO/IEC 27001, 27701 e conformità all’hosting di dati sanitari

Le nostre infrastrutture e servizi Cloud sono certificati ISO/IEC 27001, 27017, 27018 e 27701. Tali certificazioni garantiscono la presenza di un sistema di gestione della sicurezza dell’informazione (ISMS) per la gestione dei rischi, delle vulnerabilità e della continuità operativa, nonché di un sistema di gestione delle informazioni personali (PIMS). La nostra conformità normativa ti consente di ospitare i dati sanitari in totale sicurezza.

* Presto disponibile

Caratteristiche delle NVIDIA Tesla V100

Performance con NVIDIA GPU Boost

Banda passante di interconnessione bidirezionale

Memoria CoWoS Stacked HBM2
  • Doppia precisione: 7 teraFLOPS
  • Singola precisione: 14 teraFLOPS
  • Deep Learning: 112 teraFLOPS
  • PCIe 32 GB/s
  • Capacità: 16 GB HBM2
  • Banda passante: 900 GB/s

 

Modalità di utilizzo

Riconoscimento delle immagini

Estrarre informazioni dalle immagini per classificarle, identificare un elemento o costruire documenti complessi sono azioni necessarie in molti settori: diagnostica per immagini, social network, protezione e sicurezza pubblica... associando framework come Caffe2 alla GPU Tesla V100, tutte queste operazioni diventano possibili e facilmente accessibili.

Analisi della situazione

In alcuni casi è importante agire in tempo reale e reagire in maniera adeguata a fronte di situazioni diverse e imprevedibili. Questo tipo di esigenza è tipico, ad esempio, per le macchine autonome o l’analisi del traffico di rete di Internet. È proprio qui che il Deep Learning interviene per formare reti neurali di apprendimento autonomo dopo un primo periodo di addestramento.

Interazione umana

In passato l’uomo ha imparato a comunicare con le macchine. Nell’epoca odierna, invece, sono le macchine a imparare a comunicare con l’uomo: riconoscimento vocale, identificazione delle emozioni tramite suono e video.... strumenti come TensorFlow consentono di spostare i limiti di queste interazioni e aprire nuove possibilità alle modalità di utilizzo.

Bisogno di addestrare la tua Intelligenza Artificiale con le GPU?

La nostra soluzione AI Training consente di gestire in modo semplice ed efficace i modelli di Intelligenza Artificiale e ottimizzare le risorse di calcolo GPU.

In questo modo è possibile concentrarsi sulla propria attività invece che sull'infrastruttura che la supporta. L’avvio degli addestramenti può essere effettuato da riga di comando, pagando le risorse utilizzate al minuto.

Scopri OVHcloud AI Training

Come funziona

1

Inizia

Avvia la tua istanza scegliendo il modello T1 e l’immagine NGC che preferisci.

2

Configura

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Utilizza

Il tuo framework di Intelligenza Artificiale è pronto per eseguire i calcoli.

Pronto per iniziare?

Crea un account e attiva i tuoi servizi in un minuto

Tariffazione Public Cloud

Fatturazione istanze GPU

Come tutti gli altri tipi di istanze, la gamma GPU viene fatturata in pay as you go alla fine di ogni mese e il prezzo dipende dalla dimensione dell’istanza attivata e dalla durata di utilizzo.

Le risposte alle tue domande

Qual è lo SLA garantito da OVHcloud per le istanze GPU?

Lo SLA delle istanze GPU prevede una disponibilità mensile del 99,999%. Per maggiori informazioni, consulta le condizioni generali del servizio.

Quale hypervisor viene utilizzato per la virtualizzazione delle istanze?

Le istanze GPU, proprio come le altre, sono virtualizzate dall'hypervisor KVM del kernel Linux.

Cos'è PCI Passthrough?

Le schede con processori grafici sono accessibili tramite il bus PCI del server fisico. PCI Passthrough è una funzionalità dell'hypervisor che permette di dedicare un hardware a una macchina virtuale dando l'accesso direttamente al bus PCI senza passare per la virtualizzazione.

È possibile ridimensionare un'istanza GPU?

Sì, le istanze GPU possono evolversi verso un modello superiore dopo un riavvio, ma non passare a uno inferiore.

Le istanze GPU usufruiscono di una protezione anti-DDoS?

Sì, il nostro sistema anti-DDoS è incluso su tutte le soluzioni OVHcloud, senza costi aggiuntivi.

È possibile modificare, nel corso del mese, la fatturazione di un'istanza da mensile a oraria?

Se è attivo il forfait mensile, il passaggio alla fatturazione oraria non è possibile. Prima di avviare l'istanza è quindi importante selezionare con la massima attenzione la modalità di fatturazione più adatta al proprio progetto.