
Server bare metal per carichi di lavoro a elevate prestazioni
Questi server bare metal, dalle performance elevate, sono appositamente configurati per ottenere le migliori prestazioni. Utilizzati singolarmente o come elementi di un cluster, permettono di scegliere tra una serie di configurazioni hardware ad alta densità e a bassa latenza per applicazioni di Machine Learning, Grid Computing, database in-memory e Intelligenza Artificiale. Le modalità di utilizzo sono numerose e le macchine possono essere personalizzate in base ai propri obiettivi ed esigenze.


Scegli server high availability per cluster a uso critico
Utilizza architetture ridondate per circuiti elettrici, sistema di raffreddamento a liquido, rete e alimentazione.
Implementa macchine progettate per ambienti di produzione con alta intensità di risorse.
Connetti i cluster alle soluzioni Public Cloud e Hosted Private Cloud di OVHcloud.
Scegli e personalizza i server per costruire i cluster.
Scegli il tuo server

Server ottimizzati per accessi disco estremamente rapidi e latenza ridotta
Alcune attività specifiche richiedono un supporto di storage con prestazioni molto elevate in termini di IOPS (Input/Output Per Second). I server HG IOPS Intensive sono pensati per attività di analisi massiva, applicazioni di simulazione digitale e applicazioni video ad altissima definizione. Permettono inoltre di potenziare un sito e-commerce con alte prestazioni. Grazie ai dischi SSD NVMe integrati, in media sei volte più performanti degli SSD in SATA, questa gamma è caratterizzata da latenza ridotta ed estrema velocità ed è quindi in grado di rispondere a qualsiasi tipo di esigenza.

Server ad alta densità per l’elaborazione massiva di dati
Utilizzati singolarmente o come elementi di un cluster, i server HG con configurazione ad alta densità permettono di gestire in modo efficace i carichi di lavoro dinamici per applicazioni di calcolo intensivo (HPC) e soluzioni di analisi dati. Questo modello dedicato al Big Data è compatibile con le piattaforme più diffuse di trattamento dei dati, ad esempio Hadoop e i database SQL e NoSQL. Inoltre, semplifica la gestione di database come Apache Cassandra, Microsoft SQL Server e MongoDB.

Server per IA e Machine Learning
I server HG IA e Machine Learning sono perfetti per l'elaborazione dei calcoli paralleli necessari all’apprendimento automatico. Dotata di componenti high performance di ultima generazione, questa piattaforma permette di sfruttare al massimo i vantaggi della scheda grafica Nvidia Tesla P100, l’acceleratore più utilizzato al mondo per i calcoli intensivi paralleli. In questo modo, usufruisci di tutti i framework di Deep Learning accelerati dalla Tesla P100 e oltre 450 applicazioni di HPC.

Server ottimizzati per database in-memory
In genere i dati sono salvati su hard disk o SSD e, quando vengono utilizzati, trasferiti sulla RAM. Numerosi accessi al disco possono rallentare i processi, soprattutto se la memoria non è sufficientemente grande. La configurazione HG In-Memory Database è la soluzione ideale se cerchi server ottimizzati per sistemi di gestione di database in memoria centrale (SGBD In-Memory). Questi sistemi sono utilizzati per migliorare le performance delle richieste e delle applicazioni che accedono ai dati, salvati in memoria per limitare le operazioni sul disco.
Funzionalità principali
Rete a elevate prestazioni
Progettati per assicurare massima disponibilità e tolleranza ai guasti, questi server si basano sulla rete privata vRack di OVHcloud per scambi fluidi tra macchine (fino a 10Gbit/s) all'interno di una VLAN sicura. Sono ideali per costruire data lake tramite l'interconnessione con le soluzioni Public Cloud di OVHcloud.
Ecosistema aperto
Per l'Intelligenza Artificiale e il Machine Learning, la scelta migliore è avvalersi si framework come Caffe2, Cognitive Toolkit, PyTorch e TensorFlow, che utilizzano librerie accelerate da Tesla P100 (come cuDNN e NCCL) per fornire le massime prestazioni di apprendimento.
Accessi disco rapidi e latenza ridotta
Con prestazioni che raggiungono fino a 587.000 IOPS in lettura e 184.000 IOPS in scrittura, è possibile accelerare database NoSQL, motori di ricerca, archivi di dati, analisi in tempo reale e applicazioni in cache su disco.
Hot Swap
Le diverse tipologie di disco rigido e SSD (SAS, SATA, NVMe) possono essere sostituite senza dover riavviare il server. In questo modo in caso di necessità, ad esempio per aumentare la capacità del disco, non si verificheranno interruzioni di servizio.
Supporto specializzato per la tua azienda


Soluzioni associate
Cos'è il Cluster computing?
Il Cluster computing consiste semplicemente nel collegare più computer o server tra loro per massimizzarne prestazioni e disponibilità. La differenza principale tra Cloud computing e Cluster computing risiede nel fatto che quest’ultimo si basa sull’interconnessione di soluzioni fisiche invece che virtuali. Tramite la rete privata vRack, OVHcloud consente di collegare a qualunque soluzione Cloud i cluster di server disponibili in uno qualsiasi dei suoi datacenter.
Le potenziali modalità di utilizzo di queste architetture sono numerose, ad esempio ripartire i carichi di lavoro tra i server, assicurare la consistenza dei dati, garantire la ridondanza in caso di malfunzionamenti hardware e fornire le massime performance ad applicazioni particolarmente intensive.
Indipendentemente dall'utilizzo specifico, l'hardware è un elemento importante per qualsiasi soluzione di Cluster computing ad alte prestazioni. Considerando che questi servizi vengono generalmente utilizzati per i flussi di lavoro più intensi, i componenti (inclusi processori e GPU) devono essere del livello più elevato e le connessioni tra i server veloci e sicure. Anche la personalizzazione è essenziale, in quanto qualsiasi server utilizzato come parte di un cluster high performance deve offrire la libertà di adattare l'hardware ai casi di utilizzo specifici ed essere totalmente compatibile con le piattaforme di elaborazione dati più diffuse.
Perché il Cluster computing è importante per la tua azienda?
Sempre più aziende, alla ricerca del massimo livello di prestazioni per i carichi di lavoro più intensivi, esplorano le possibilità offerte da Big Data, Intelligenza Artificiale e Machine Learning. In questo contesto, la potenza e l'impareggiabile flessibilità offerte dal Cluster computing diventano una risorsa sempre più preziosa per una gamma di utilizzi sempre più vasta.
Configurare, gestire e mantenere in-house un'architettura di questo tipo può essere però estremamente costoso e dispendioso in termini di tempo, indipendentemente dal livello di competenza interna a un’azienda. Queste operazioni risultano particolarmente complicate quando si verifica la necessità di un'implementazione rapida per far fronte a carichi di lavoro specifici o picchi di traffico previsti.
I cluster preconfigurati nei datacenter OVHcloud eliminano queste problematiche offrendo la stessa flessibilità, sicurezza e controllo di una soluzione on premise e garantendo così la libertà di configurare i server high availability in base ai flussi di lavoro prima che il cluster venga implementato e configurato dagli esperti OVHcloud.
In questo modo i team interni possono concentrarsi sui progetti e sulla crescita aziendale gestendo in autonomia i cluster tramite il pannello di amministrazione OVHcloud, con la tranquillità di un hardware gestito e mantenuto dai nostri tecnici.