Big Data und Analysen
Big Data und Analysen auf Bare-Metal-Servern
Big-Data-Projekte erfordern Infrastrukturen, die große Datenmengen verarbeiten können. Nutzen Sie das ganze Potential Ihrer Daten – mit den leistungsstarken Bare Metal Dedicated Servern von OVHcloud.

Bestens gerüstet für Big Data, mit den Servern von OVHcloud
Die Bare-Metal-Cloud-Server sind ideal für Big-Data-Projekte geeignet und bieten Sicherheit als Kernelement der Architektur. In puncto Rechenleistung und Storage steht Ihnen damit alles Nötige zur Verfügung, um Ihre Daten in Echtzeit zu verarbeiten.
Starke Leistung
Unsere Bare-Metal-Server werden ohne virtuelle Schicht bereitgestellt und bieten maximale Leistung. Sie sind mit NVMe-Festplatten und Prozessoren der neuesten Generation von Intel und AMD ausgestattet – die beste Hardware für Big Data. Zum Erweitern Ihrer Infrastruktur können Sie ganz einfach Ressourcen hinzufügen.
Ein resilientes Netzwerk
Unser ultraschnelles Netzwerk basiert auf 4 Verbindungen und gewährleistet neben der Dienstkontinuität auch optimale Resilient mit einem SLA von 99,99 %. Der Traffic ist unbegrenzt, es fallen also keine Mehrkosten dafür an.
Eine komplett isolierte Infrastruktur
Ihre Server sind komplett Ihnen vorbehalten. So profitieren Sie von beständiger und stabiler Leistung – und wissen, dass Ihre sensiblen Daten sicher sind.
Große Festplattenkapazität
Sie verfügen über bis zu 360 TB Speicherplatz und die SSD-Technologie liefer Ihnen sehr hohe Lese- und Schreibgeschwindigkeiten (IOPS).
Big Data

Beschreibung
Die Bare-Metal-Server von OVHcloud sind für den Aufbau von Hadoop-Clustern geeignet. Deployen und verbinden Sie mehrere Daten-Nodes über unser internes Netzwerk (vRack) mit garantierten 50 Gbit/s für die High Grade Reihe. Sie können auch verschiedene Tools und Projekte aus dem Hadoop-Ökosystem (Apache Spark, Kettle, Ouzi oder Mawazo) verwenden, um Ihr Informationsmanagement und Ihre Geschäftsanalysen zu vereinfachen.
Vergrößern Sie Ihre Kapazität on demand, entweder durch das Hinzufügen von Speicherfestplatten per Hot Swap (bei High Grade verfügbar) oder durch Erweiterung der Nodes Ihres Clusters über das vRack.
Optionen und Inklusiv-Dienste
- Zahlreiche Optionen für RAM und Storage
- Private Bandbreite von 50 Gbit/s garantiert bei High Grade (als Option)
- OVHcloud Link Aggregation (OLA) ohne zusätzliche Kosten verfügbar
Unsere empfohlenen Bare-Metal-Reihen

Für komplexe und hochgradig resiliente Infrastrukturen konzipierte Serverreihe. Prozessoren und Dual-Prozessoren mit 24 bis 48 Cores, maximaler Storage von 24 TB NVMe-SSD-Speicher, garantierte private Bandbreite von bis zu 25 Gbit/s.

Die leistungsstärksten und skalierbarsten Server, optimiert für kritische Workloads. Dual-Prozessoren mit 8 bis 32 Cores, maximaler Storage von 36 x SAS-HDD mit 22 TB oder 24 x NVMe-SSD mit 15,36 TB, bis zu 24 Festplatten (Hot Swap), garantierte private Bandbreite von bis zu 25 Gbit/s.

Empfohlen für hohe Anforderungen in Sachen verteilter Speicher.
Prozessoren mit 20 und 24 Cores, maximaler Storage von 360 TB, NVMe- oder SAS-SSD, bis zu 24 Festplatten (Hot Swap) und garantierte private Bandbreite von bis zu 50 Gbit/s.
Wie ist eine Big-Data-Infrastruktur aufgebaut?
Big-Data-Infrastrukturen basieren zwar zum Teil auf den Anforderungen der jeweiligen Projekte, sie haben aber alle eine gemeinsame Grundlage: die Hardware. Use Cases im Bereich Big Data erfordern eine hohe Rechenleistung (CPU), viel Arbeitsspeicher (RAM) und einen großen Speicherplatz (Festplatten, SSD und NVMe). Diese Server müssen über ein High-Speed-Netzwerk kommunizieren, das ausreichend schnelle Datentransfers ermöglicht, um das Big-Data-Projekt nicht auszubremsen. Die Big-Data-Infrastruktur sammelt und speichert beeindruckende Datenmengen, analysiert sie mit möglichst kurzen Verarbeitungszeiten und liefert den für das Projekt verantwortlichen IT-Teams letztlich ein Ergebnis, mit dem sie arbeiten können. Der Aufbau der Big-Data-Infrastruktur variiert je nach verwendeter Technologie. Von diesen Technologien gibt es verschiedene, für unterschiedliche Unternehmensanforderungen und mit jeweils eigenen Vorteilen und Eigenschaften. Zu diesen Technologien gehören beispielsweise Apache Hadoop, Apache Spark, MongoDB, Cassandra, Rapidminer und noch viele andere.