Was ist Virtualisierungstechnologie?
Unternehmen suchen ständig nach Möglichkeiten, ihre IT-Infrastruktur zu optimieren und mehr aus ihrer physischen Hardware herauszuholen – aber auch, um Flexibilität und Skalierbarkeit in ihrer Technologiebereitstellung zu erhöhen.
Hier kommt die Virtualisierung ins Spiel: Virtualisierung ist eine Technologie, die es Ihnen ermöglicht, eine simulierte, softwarebasierte Version einer physischen Ressource, wie z. B. einem Server, Speichergerät, Netzwerk oder Desktop, zu erstellen.
Durch die Abstraktion der Software von der zugrunde liegenden Hardware ermöglicht die Virtualisierung, mehrere unabhängige Betriebssysteme und Anwendungen, bekannt als virtuelle Maschinen (VMs), auf einer einzigen physischen Maschine auszuführen. Es ist ein grundlegender Wandel, der die IT-Infrastruktur transformiert hat und zu erheblichen Verbesserungen in Effizienz, Skalierbarkeit und Kosteneinsparungen geführt hat.
Wie funktioniert Virtualisierung?
Im Herzen der Virtualisierung steht ein grundlegendes Softwarestück, das als Hypervisor bezeichnet wird. Auch bekannt als virtueller Maschinenmonitor (VMM), ist der Hypervisor die Technologie, die virtuelle Maschinen als Gastbetriebssystem auf einem Host erstellt und ausführt.
Er fungiert als Schicht zwischen der physischen Hardware und den VMs, abstrahiert die physischen Ressourcen, einschließlich CPU, Speicher und Speicher, und weist sie jeder Gast-virtuellen Umgebung zu.
Jede VM ist ein isolierter virtueller Computer mit ihrem eigenen Betriebssystem und Anwendungen. Der Hypervisor lässt die VMs glauben, dass sie exklusiven Zugriff auf die physische Hardware haben, während der Hypervisor in Wirklichkeit diese Ressourcen effizient verwaltet und unter allen VMs, die auf der physischen Hostmaschine ausgeführt werden, teilt.
Das Nettoergebnis: Mehrere virtuelle Systeme können gleichzeitig und unabhängig auf einem einzigen Hardwarestück betrieben werden. Es gibt zwei Haupttypen von Hypervisoren:
- Typ 1 (Bare-Metal) Hypervisoren: Direkt auf der Hardware des physischen Servers installiert, ohne ein zugrunde liegendes Betriebssystem. Sie sind der häufigste Typ, der in Rechenzentren und Unternehmensumgebungen verwendet wird, da sie hohe Leistung und Sicherheit bieten.
- Typ 2 (gehostete) Hypervisoren: Laufen als Softwareanwendung auf einem bestehenden Betriebssystem, wie Windows oder macOS. Sie werden typischerweise für die Desktop-Virtualisierung oder zum Ausführen verschiedener Gast-Desktop- oder Serverbetriebssysteme auf einem einzelnen Computer für Entwicklungs- und Testzwecke verwendet.
Typ 1 Hypervisoren werden für großangelegte Unternehmensrechenzentren verwendet, die hohe Leistung erfordern, während Typ 2 Hypervisoren für virtuelle Desktop-Infrastruktur und die Entwicklung von Personal Computern genutzt werden.
Warum Virtualisierungstechnologie nutzen?
Die Einführung von Virtualisierung bietet viele wesentliche Vorteile, von der Verbesserung der Effizienz von Systemen bis hin zur Erhöhung der Sicherheit:
- Ressourcenoptimierung Virtualisierung ermöglicht die Optimierung physischer Hardware. Anstatt eine unterausgelastete Anwendung auf einem einzigen dedizierten Server auszuführen, können Sie mehrere Arbeitslasten auf einer einzigen physischen Maschine konsolidieren. Dies beseitigt Serverausbreitung, reduziert verschwendete Ressourcen und macht Ihre IT-Infrastruktur viel effizienter.
- Skalierbarkeit der Infrastruktur: Virtualisierung erleichtert es, Ihre Infrastruktur an sich ändernde Geschäftsbedürfnisse anzupassen. Sie können schnell neue virtuelle Maschinen bereitstellen, Ressourcen zwischen Gast-VMs umverteilen oder Arbeitslasten von einem Server auf einen anderen migrieren, ohne physische Hardwareänderungen vorzunehmen. Diese dynamische Flexibilität ermöglicht eine schnelle Skalierung nach oben oder unten als Reaktion auf die Nachfrage.
- Kosteneinsparungen Einer der bedeutendsten Vorteile der Virtualisierung ist das Potenzial für erhebliche Kosteneinsparungen. Durch die Konsolidierung von Servern können Sie die Ausgaben für neue Hardware reduzieren, den Energieverbrauch (Strom und Kühlung) senken und die Wartungskosten verringern. Dies führt zu niedrigeren Gesamtkosten für den Besitz (TCO) Ihrer IT-Infrastruktur.
- Isolation und Sicherheit: Jede virtuelle Maschine ist eine isolierte Umgebung, was bedeutet, dass ein Sicherheitsvorfall oder ein Anwendungsfehler in einem VM-Host andere VMs, die auf demselben physischen Server laufen, nicht beeinträchtigt. Dieses Maß an Isolation erhöht die Sicherheit und Stabilität.
Darüber hinaus vereinfacht die Virtualisierung die Notfallwiederherstellung für Systeme, indem Sie ganze virtuelle Maschinen schnell und einfach sichern und wiederherstellen können, wodurch die Ausfallzeiten nach einem Vorfall minimiert werden.
Arten der Virtualisierung
Virtualisierung ist keine einzelne Technologie, sondern ein breites Konzept, das mehrere unterschiedliche Typen umfasst, die jeweils darauf ausgelegt sind, eine spezifische IT-Ressource zu unterstützen und zu optimieren. Das Verständnis dieser verschiedenen Kategorien ist der Schlüssel zur effektiven Nutzung der Virtualisierung in der Infrastruktur einer Organisation.
Servervirtualisierung:
Die Servervirtualisierung ist die häufigste und am weitesten verbreitete Form der Virtualisierung. Es beinhaltet die Partitionierung und Generierung eines einzelnen physischen Servers in mehrere isolierte virtuelle Server, die jeweils in der Lage sind, ihr eigenes Betriebssystem und Anwendungen auszuführen.
Der Hypervisor ermöglicht es diesen virtuellen Serversystemen, die zugrunde liegenden Hardware-Ressourcen der physischen Maschine zu teilen. Diese Konsolidierung erhöht die Serverauslastung dramatisch, reduziert die Anzahl der benötigten physischen Server und vereinfacht das Servermanagement.
Netzwerkvirtualisierung
Die Netzwerkvirtualisierung kombiniert physische Netzwerkhardware (wie Switches, Router und Firewalls) zu einem einzigen, softwarebasierten virtuellen Netzwerk. Sie trennt die Netzwerksteuerungsebene von der Datenebene, sodass Netzwerkdienste und -systeme programmgesteuert bereitgestellt und verwaltet werden können, ohne die physische Hardware direkt zu manipulieren.
Dies ermöglicht eine größere Netzwerkflexibilität, Agilität und ein vereinfachtes Netzwerkmanagement, was die Bereitstellung neuer Netzwerkdienste und die Durchsetzung von Sicherheitsrichtlinien erleichtert.
Speicher-Virtualisierung
Die Speicher-Virtualisierung bündelt physischen Speicher von mehreren Netzwerk-Speichergeräten in dem, was wie ein einzelnes Speichergerät erscheint. Diese Abstraktion befreit Administratoren von der Verwaltung des Speichers basierend auf dem physischen Standort der Daten.
Es ermöglicht, Daten zu speichern und abzurufen, ohne den genauen Standort des unterstützenden Speichersystems zu kennen. Die Vorteile umfassen eine verbesserte Speicherauslastung, einfachere Datenmigration, verbesserten Datenschutz und ein vereinfachtes Speicher-Management über verschiedene Hardware hinweg.
Desktop-Virtualisierung
Die Desktop-Virtualisierung trennt eine Desktop-Umgebung und ihre zugehörigen Anwendungen vom physischen Client-Gerät, das verwendet wird, um darauf zuzugreifen.
Anstatt ein Betriebssystem und Anwendungen direkt auf dem lokalen Computer eines Benutzers auszuführen, laufen sie auf einem zentralen Server. Benutzer können dann von jedem Gerät, überall, auf ihren personalisierten virtuellen Desktop zugreifen. Dies vereinfacht das Desktop-Management, verbessert die Sicherheit, optimiert die Datenkontrolle und bietet größere Flexibilität für Remote-Arbeitskräfte.
Anwendungsvirtualisierung
Die Anwendungsvirtualisierung ermöglicht es Anwendungen, in einer isolierten Unterstützungsumgebung vom zugrunde liegenden Betriebssystem auszuführen. Das bedeutet, dass die Anwendung nicht direkt auf dem lokalen Gerät installiert ist, sondern zu ihm streamt oder innerhalb eines virtuellen Containers läuft, der sie von anderen Anwendungen und dem Betriebssystem isoliert.
Es ist ein Ansatz, der Speicherkonflikte zwischen Anwendungen beseitigt, die Bereitstellung vereinfacht und die Anwendungs-Kompatibilität über verschiedene Benutzerumgebungen hinweg sicherstellt, da die Anwendung ihre eigene Laufzeitumgebung mit sich führt.
Anwendungsfälle für Virtualisierung
Virtualisierung ist eine vielseitige Technologie mit einer breiten Palette von Anwendungen, die Effizienz und Innovation in verschiedenen Branchen vorantreiben.
Einer der häufigsten Anwendungsfälle ist die Konsolidierung von Rechenzentren, bei der Unternehmen ihren physischen Serverbedarf reduzieren, indem sie mehrere Arbeitslasten virtualisieren, die alle auf einem einzigen Hardwarestück laufen, was zu erheblichen Einsparungen bei Platz, Strom und Kühlung führt. Es ist schließlich das Fundament von Infrastruktur-als-eine-Dienstleistung (IaaS).
Es dient auch als Grundpfeiler für moderne Notfallwiederherstellung und Geschäftskontinuitätspläne, die es ermöglichen, gesamte virtuelle Umgebungen schnell zu sichern und wiederherzustellen, falls es zu einem Ausfall kommt.
Darüber hinaus ist Virtualisierung für Entwicklungs- und Testumgebungen von unschätzbarem Wert, da Entwickler schnell isolierte VMs bereitstellen und abbauen können, um Anwendungen zu testen, ohne andere Systeme zu beeinträchtigen.
Es ist auch die grundlegende Technologie für Cloud-Computing, die es Anbietern ermöglicht, zentrale Ressourcen unter unzähligen Benutzern zu bündeln und zu teilen, was Dienste wie Infrastruktur als Dienstleistung (IaaS) möglich macht. Durch die Bereitstellung einer flexiblen und skalierbaren Grundlage ist Virtualisierung ein entscheidender Faktor für private Cloud-, öffentliche Cloud- und hybride Cloud-Strategien.
Vorteile und Herausforderungen
Während Virtualisierungstechnologien transformative Vorteile für moderne IT-Infrastrukturen bieten, bringt ihre Implementierung und Verwaltung ihre eigenen Überlegungen und potenziellen Herausforderungen mit sich. Das Verständnis beider Seiten ist entscheidend für eine erfolgreiche und optimierte virtuelle Umgebung. Einige der Vorteile:
- Kosteneffizienz: Durch die Konsolidierung mehrerer Arbeitslasten auf einem einzigen physischen Server reduziert die Virtualisierung die Investitionsausgaben für Hardware drastisch. Es senkt auch die Betriebskosten, die mit Strom, Kühlung und Rechenzentrumsfläche verbunden sind.
- Verbesserte Agilität und Skalierbarkeit: Virtuelle Maschinen können in Minuten und nicht in Tagen bereitgestellt und implementiert werden. Diese schnelle Flexibilität ermöglicht es Organisationen, Ressourcen schnell nach oben oder unten zu skalieren, um sich ändernden Anforderungen gerecht zu werden und eine schnellere Anwendungsbereitstellung und -test zu unterstützen.
- Verbesserte Notfallwiederherstellung: Virtualisierung vereinfacht die Notfallwiederherstellung, indem es einfach ist, gesamte virtuelle Maschinen zu sichern, zu replizieren und an einen externen Standort zu verschieben. Dies ermöglicht schnellere Wiederherstellungszeiten und minimiert Ausfallzeiten nach einem katastrophalen Ereignis.
- Produktivitätssteigerung: Zentralisierte Verwaltungstools für virtuelle Umgebungen vereinfachen die Verwaltung zahlreicher Server, Betriebssysteme und Anwendungen. Dies reduziert die Zeit und den Aufwand für routinemäßige Wartungsaufgaben und gibt der IT-Abteilung die Möglichkeit, sich auf strategische Initiativen zu konzentrieren.
Während die Virtualisierung erhebliche Vorteile bietet, ist ihre Implementierung nicht ohne eigene Komplexitäten und potenzielle Fallstricke:
- VM-Host-Ausbreitung: Da es so einfach ist, neue virtuelle Maschinen zu erstellen, können Organisationen eine unkontrollierte Ausbreitung erleben, die als VM-Sprawl bekannt ist. Dies kann zu einer großen Anzahl von nicht verwalteten oder vergessenen VMs führen, die wertvolle Ressourcen verbrauchen, die Komplexität erhöhen und Sicherheitsanfälligkeiten schaffen.
- Leistungsüberhang: Das Ausführen eines Hypervisors und mehrerer VMs auf einem einzelnen Host kann einen leichten Leistungsüberhang verursachen. Wenn dies nicht ordnungsgemäß verwaltet wird, kann dies zu Ressourcenwettbewerb führen, bei dem konkurrierende VMs um CPU, Speicher oder Speicherplatz kämpfen, was zu einer verschlechterten Leistung kritischer Anwendungen führt.
- Verwaltungskomplexität: Während eine zentralisierte Verwaltungs-Konsole von Vorteil sein kann, kann die schiere Anzahl an virtuellen Ressourcen, von VMs und virtuellen Netzwerken bis hin zu virtuellem Speicher, eine komplexe Umgebung schaffen. Eine effektive Verwaltung erfordert spezialisierte Fähigkeiten und Werkzeuge, um die Infrastruktur zu überwachen, zu optimieren und zu warten.
Schließlich kann die Softwarelizenzierung in einer virtualisierten Umgebung sehr komplex und teuer sein, insbesondere wenn ein einzelner physischer Server mehrere Kern-VMs ausführt, von denen jede ihre eigene Lizenz benötigt. Darüber hinaus können einige Legacy- oder spezialisierte Anwendungen Kompatibilitätsprobleme mit Virtualisierungsplattformen haben, die die Migration behindern.
Virtualisierung und Nachhaltigkeit
Neben den finanziellen und betrieblichen Vorteilen ist die Virtualisierung zu einem Grundpfeiler nachhaltiger IT-Praktiken geworden. Durch die Konsolidierung mehrerer Arbeitslasten auf einem einzigen physischen Server können Organisationen ihren Hardwarebedarf drastisch reduzieren.
Diese "Serverkonsolidierung" führt direkt zu einem geringeren Energieverbrauch, da weniger physische Maschinen weniger Strom zum Betrieb und weniger Energie für die Kühlung benötigen.
Die Reduzierung des Energieverbrauchs senkt nicht nur die Betriebskosten für die Nutzer, sondern verringert auch erheblich die Kohlenstoffemissionen einer Organisation und trägt zu einer geringeren Umweltbelastung bei.
Da Unternehmen weltweit Nachhaltigkeitsziele priorisieren, bietet Virtualisierung eine leistungsstarke und praktische Lösung für den Aufbau eines energieeffizienten und umweltfreundlichen Rechenzentrums, das die Unternehmensziele mit der sozialen Verantwortung von Unternehmen in Einklang bringt. Das macht es zu einer entscheidenden Technologie für jede Organisation, die eine "grüne IT"-Strategie verfolgen möchte.
Zukunft der Virtualisierung
Wie in jedem anderen schnelllebigen Technologiesektor ist die Virtualisierung nicht statisch; sie ist ein dynamisches Feld, das ständig von neuen Computertechnologien und sich entwickelnden Geschäftsbedürfnissen geprägt wird. Während die grundlegenden Prinzipien der Abstraktion physischer Ressourcen bestehen bleiben, ist die Zukunft der Virtualisierung darauf vorbereitet, sich tiefer mit anderen modernen Technologien zu integrieren und aufkommende Herausforderungen anzugehen.
KI in der Virtualisierung
Einer der bedeutendsten Trends ist die Integration von Virtualisierung mit künstlicher Intelligenz und maschinellem Lernen (KI/ML). Da virtualisierte Umgebungen in Größe und Komplexität zunehmen, wird das manuelle Management zunehmend schwierig.
KI- und ML-Algorithmen werden entwickelt, um Aufgaben wie Ressourcenzuteilung, Leistungsoptimierung und vorausschauende Wartung zu automatisieren.
Zum Beispiel können KI-gestützte Tools Echtzeit-Arbeitslastmuster analysieren und CPU-, Speicher- und Speicherzuweisungen dynamisch anpassen, um Ressourcenkonflikte zu vermeiden und eine optimale Leistung für kritische Anwendungen sicherzustellen. Dies verbessert nicht nur die Effizienz, sondern reduziert auch die administrative Belastung der IT-Teams, sodass sie sich auf strategischere Initiativen konzentrieren können.
Verbesserte Hardwareunterstützung
Ein weiterer wichtiger Innovationsbereich ist die hardwaregestützte Virtualisierung. Obwohl Hypervisoren sehr effizient geworden sind, bringen sie immer noch einen leichten Leistungsaufwand mit sich.
Chiphersteller wie Intel und AMD verbessern kontinuierlich ihre Prozessoren mit Funktionen, die speziell entwickelt wurden, um die Virtualisierung auf einem Prozessor zu beschleunigen.
Hardwareoptimierungen wie Intel VT-x und AMD-V ermöglichen es Prozessoren, einige Hypervisor-Funktionen direkt zu übernehmen, was eine nahezu native Leistung für virtualisierte Arbeitslasten sowohl auf Intel- als auch auf AMD-CPUs unter Windows und Linux bietet.
Mit dem Fortschritt der Hardwarefähigkeiten wird die Leistungsdifferenz zwischen einer physischen und einer virtuellen Maschine weiterhin schrumpfen, was die Computer-Virtualisierung zu einer noch überzeugenderen Wahl für anspruchsvolle Anwendungen macht.
Edge-Computing
Der Aufstieg des Edge-Computing stellt auch eine neue Grenze für die Virtualisierung dar. Da Unternehmen mehr Anwendungen und Geräte am Netzwerkrand – näher an den Orten, an denen Daten erzeugt werden – bereitstellen, wächst der Bedarf an effizientem Ressourcenmanagement in verteilten, latenzarmen Umgebungen.
Virtualisierung ist die grundlegende Softwaretechnologie, die die Konsolidierung und Verwaltung verschiedener Softwarearbeitslasten auf begrenzter Hardware am Rand ermöglicht.
Dies ermöglicht die schnelle Bereitstellung neuer Dienste, verbessert die Datenverarbeitung und erhöht die Sicherheit am Rand. Edge-Virtualisierung, die oft leichte Hypervisoren oder Containerisierung nutzt, wird zu einem entscheidenden Enabler für IoT, intelligente Städte und Echtzeitanalysen.
Bald cloud-nativ?
Schließlich verändert die Entwicklung der cloud-nativen Virtualisierung die Art und Weise, wie Organisationen über Infrastruktur nachdenken. Während sich die traditionelle Virtualisierung oft auf die Erstellung und Verwaltung einzelner VMs konzentriert, bewegt sich die Zukunft in Richtung einer deklarativeren und automatisierten Infrastrukturverwaltung.
Technologien wie Kubernetes erweitern ihren Einfluss über Container hinaus, um virtuelle Maschinen zusammen mit ihnen zu orchestrieren und einen einheitlichen Kontrollbereich für alle Arten von Workloads zu schaffen. Dieser Trend, bekannt als "container-native Virtualisierung", bietet das Beste aus beiden Welten: die starke Isolation eines VM-Hosts mit der Agilität und Portabilität eines Container-Orchestrierungssystems.
Dieser hybride Ansatz vereinfacht das Softwaremanagement, erhöht die Produktivität der Entwickler und ebnet den Weg für eine wirklich integrierte Multi-Cloud-Zukunft. Diese Trends heben hervor, dass Virtualisierung keine statische Technologie ist, sondern ein zentraler Enabler für zukünftige IT-Innovationen.
Virtualisierung im Vergleich
Während die Virtualisierung die IT sowohl auf Windows- als auch auf Linux-Plattformen grundlegend umgestaltet hat, wird sie oft zusammen mit anderen transformierenden Technologien wie Cloud-Computing, Containern und Multi-Tenant-Architektur diskutiert und manchmal mit ihnen verwechselt. Das Verständnis ihrer Unterschiede und Abhängigkeiten ist entscheidend für die grundlegende, strategische IT-Planung – einschließlich welcher dedizierten Server zu kaufen ist.
Virtualisierung vs. Cloud Computing
Virtualisierung ist eine Kerntechnologie, die die Erstellung einer virtuellen Version eines physischen Hosts oder einer Ressource, wie einem Server oder einem Netzwerk, mithilfe eines Hypervisors ermöglicht.
Sie ermöglicht es, dass mehrere isolierte virtuelle Maschinen-Hosts auf einem einzigen Stück physischer Hardware laufen, wodurch die Ressourcennutzung maximiert wird. Im Gegensatz dazu ist Cloud-Computing ein Dienstleistungsmodell, das Virtualisierung als Grundlage nutzt.
Cloud-Computing bündelt virtualisierte Ressourcen und bietet sie Benutzern über das Internet an, oft über Self-Service-Portale mit automatisierter Bereitstellung und einem Pay-per-Use-Modell. Während nahezu alle Cloud-Dienste auf Virtualisierung basieren, werden nicht alle virtualisierten Umgebungen als Cloud-Umgebungen betrachtet.
Virtualisierung vs. Container
Sowohl Virtualisierung als auch Container bieten eine Möglichkeit, Softwareanwendungen zu isolieren, aber sie arbeiten auf unterschiedlichen Ebenen. Bei der Virtualisierung ist jede virtuelle Maschine ein vollständiges System, das sein eigenes Betriebssystem, eine virtualisierte Version der Hardware und die Anwendung selbst umfasst.
Dies bietet ein hohes Maß an Host-Isolation, ist jedoch auch ressourcenintensiv. Container hingegen sind eine leichte Form der Virtualisierung, die Anwendungen auf Betriebssystemebene isoliert und den Kernel des Host-Betriebssystems teilt. Ein Container verpackt nur die Anwendung und ihre Abhängigkeiten, wodurch er erheblich kleiner, schneller zu starten und hochgradig portabel ist.
Virtualisierung vs. Multi-Tenant-Architektur
Virtualisierung partitioniert physische Hardware in isolierte virtuelle Instanzen (VMs), wobei die Isolation auf Hardwareebene und nicht auf Softwareebene erfolgt. Multi-Tenant-Architektur hingegen ist ein Software-Designmuster, bei dem eine einzelne Instanz einer Softwareanwendung mehreren Kunden oder "Mietern" dient, während ihre Daten und Konfigurationen logisch getrennt und sicher bleiben.
Während Multi-Tenancy auf einem traditionellen Hardware-Host implementiert werden kann, basiert es oft auf Virtualisierung und Cloud-Computing, um die zugrunde liegenden physischen Ressourcen effizient unter zahlreichen Mietern zu teilen und so die Kosteneffizienz und Skalierbarkeit zu maximieren.
OVHcloud und Virtualisierung
Bei OVHcloud können Sie drei leistungsstarke Virtualisierungslösungen über Hardware- und Softwareebenen hinweg erkunden, die auf die einzigartigen Bedürfnisse Ihres Unternehmens zugeschnitten sind.

Bare Metal für UC-Virtualisierung
Erleben Sie die Kraft der dedizierten Leistung mit OVHcloud Bare Metal für UC-Virtualisierung. Unsere Server sind so konzipiert, dass sie rohe Server-Virtualisierungsrechenleistung ohne virtuelle Schicht bereitstellen und Ihnen maximale Leistung über VPS Hosting für Ihre anspruchsvollsten Arbeitslasten bieten.

Hosted Private Cloud, betrieben von VMware
Optimieren Sie Ihre IT mit OVHclouds Hosted Private Cloud, die von VMware betrieben wird. Unsere Lösungen sind vollständig verwaltet und betrieben von OVHcloud, sodass Sie von den Komplexitäten der Verwaltung physischer Infrastruktur befreit sind.

Private Cloud mit VMware vSphere
Heben Sie Ihre virtuelle Infrastruktur mit OVHclouds Hosted Private Cloud, die von VMware vSphere betrieben wird, an. Unsere Lösung bietet eine leistungsstarke und widerstandsfähige Plattform, die das Infrastrukturmanagement vereinfacht. Mit integrierten Plugins können Sie ganz einfach zusätzliche Hosts und Speicher bestellen, auf IP-Adressen zugreifen und sogar Resilienztests durchführen.