Definitionen zu Cloud Computing & Hosting
IT- & Technologie-Glossar
Der Cloud-Computing-Bereich ist überschwemmt von Fachjargon und Schlagwörtern der Branche. Das OVHcloud Glossar ist Ihr Guide durch diese verwirrende technische Terminologie. Das Glossar enthält Begriffe und Definitionen zum Thema Cloud Computing und OVHcloud. Durchsuchen Sie die Liste der IT-Begriffe und -Definitionen einfach mithilfe der untenstehenden Buchstaben.

Anonymous FTP ist eine Unterkategorie von FTP (File Transfer Protocol) und ermöglicht den Zugriff auf Daten, ohne dass eine Benutzer-ID oder ein Kennwort erforderlich ist (ungeschützter Zugriff). Dieses Protokoll birgt daher gewisse Sicherheitsrisiken und der Systemadministrator ist dafür verantwortlich, dass nur auf die betreffenden Daten zugegriffen werden kann.
Eine API (Application Programming Interface) ist eine Sammlung von Definitionen und Protokollen. Sie dient als Verbindung zwischen zwei oder mehr Anwendungen und ermöglicht es diesen, miteinander zu kommunizieren. Beispiel: App 1 sendet eine Anfrage an die API, die API verbindet sich mit dem Server für App 2, ruft dort die angeforderten Daten ab und gibt sie vom Server von App 2 zurück an App 1.
Backup bezeichnet den Prozess, Kopien eines gesamten IT-Systems oder einzelner Dateien anzufertigen. Diese Kopien werden separat gespeichert, damit sie wiederhergestellt werden können, sollte das Original verloren gehen oder beschädigt werden. Es gibt verschiedene Arten von Backups (z. B. inkrementelle Backups, Snapshot-Backups), die je nach Budget und Anwendungsfall verwendet werden.
Die Bitrate ist ein Maß für die Datenmenge (in Bit), die ein System von einem Standort an einen anderen überträgt. Verwendete Einheiten sind unter anderem Bit/s (bps), Mbit/s (Mbps) und Gbit/s (Gbps) – „Bits pro Sekunde“, „Megabits pro Sekunde“, „Gigabits pro Sekunde“. Bandbreite ist die maximale Bitrate, die ein System liefern kann.
Bare Metal bezeichnet Technologie, die reine Hardware enthält – und sonst nichts. Bei Bare-Metal-Servern sind weder ein Betriebssystem noch eine Virtualisierungsschicht oder Anwendungen vorinstalliert. Benutzer erhalten uneingeschränkten Zugriff auf die Hardwareressourcen und können jedes beliebige Betriebssystem und jede beliebige Software installieren.
Big Data bezeichnet Datensätze, die zu groß sind, um sie auf einem einzigen High-End-Server mit hoher Speicherkapazität zu verarbeiten. Im Englischen gibt es die drei Vs rund um Big Data: „Volume“ (die Menge der verarbeiteten Daten), „Velocity“ (die Geschwindigkeit, mit der diese generiert, empfangen und verarbeitet werden) und „Variety“ (die empfangenen Datentypen).
Ein Betriebssystem ist eine Low-Level-Systemsoftware, die sich direkt über der Serverhardware befindet. Es verwaltet sowohl die Hardwareressourcen als auch die darauf befindlichen Softwareanwendungen und koordiniert dabei die Zuweisung von Leistung für jedes Programm und jeden Task. Die am häufigsten verwendeten Betriebssysteme sind Windows, MacOS und Linux.
Siehe: CDN (Content Delivery Network).
Als Cloud werden Rechenressourcen bezeichnet, die über das Internet bereitgestellt werden, anstatt lokal auf dem Computer des Benutzers zu laufen. Diese Ressourcen werden on demand von einem Cloud-Unternehmen verkauft, das sich um Hardware, Stromversorgung und Kühlung kümmert. Dedicated Server und Public-Cloud-Instanzen sind Beispiele für Cloud-Produkte.
Eine Cloud-Anwendung oder Cloud-App ist eine Anwendung, die auf Cloud-Computing-Ressourcen und -Diensten basiert. Cloud-Anwendungen erfordern keine ständige Internetverbindung, können jedoch im Offline-Betrieb keine Daten von oder an entfernte Komponenten übertragen.
Ein Cloud Architect ist ein IT-Experte, der die Cloud-Computing-Strategie eines Unternehmens managt. Sie entwickeln eine Cloud-Infrastruktur nach den technischen Anforderungen eines Projekts und finden Wege, um die unternehmerischen Herausforderungen der Cloud-Technologie zu bewältigen. Sie können auch in rechtlichen Bereichen tätig werden, z. B. bei Vertragsverhandlungen.
Cloud-Automatisierung bezeichnet die Verwendung von Automatisierungstechnologie zur Ausführung von Tasks wie Ressourcenbereitstellung und -management und die Erstellung von Backups. Hierdurch wird weniger menschliches Eingreifen erforderlich und IT-Teams können sich auf wertschöpfende Aufgaben konzentrieren, statt sich ständig wiederholende, zeitraubende Verwaltungsaufgaben zu erledigen.
Ein Cloud-Backup oder Remote-Backup bezeichnet die Strategie, Datenkopien an einem sekundären, externen Standort zu speichern. In der Regel handelt es sich dabei um ein Rechenzentrum, das von einem Cloud-Anbieter verwaltet wird, der dem Kunden die verwendete Speichermenge in Rechnung stellt. Wenn der Hauptserver ausfällt, kann der Kunde ein Backup abrufen, das sicher an einem anderen Ort gespeichert wurde.
Eine Cloud Bridge ist eine Hardware- oder Softwarekomponente, die ein On-Premise-System mit einem Cloud-Netzwerk verbindet. Unternehmen können so eine hybride Strategie verfolgen, indem sie ihre Infrastrukturen auf die Cloud ausweiten.
Cloud Bursting bezeichnet ein hybrides Cloud-Deployment-Modell, das Cloud-Lösungen (in der Regel Public-Cloud-Ressourcen) dazu verwendet, überschüssigen Traffic oder eine Ressourcennutzung, die die On-Premise-Infrastruktur überlasten würde, zu bewältigen. Cloud Bursting kann manuell oder automatisch durch Hinzufügen einer bestimmten Kapazitätsgrenze ausgelöst werden.
Cloud Computing ist die On-Demand-Bereitstellung von IT-Diensten über das Internet. Diese Dienste werden von einem Cloud-Anbieter zur Verfügung gestellt und instandgehalten. Die Alternative dazu ist das On-Premise-Computing, bei dem die IT-Ausrüstung lokal vom Benutzer selbst gehostet wird. Cloud-Technologie bietet viele Vorteile, z. B. mehr Flexibilität und Kostenkontrolle.
Es gibt 3 Cloud-Computing-Typen: Public Cloud, Private Cloud und Hybrid Cloud. Public-Cloud-Ressourcen werden zwischen mehreren Benutzern geteilt. Private-Cloud-Ressourcen stehen ausschließlich einem einzigen Benutzer zur Verfügung. Hybrid Clouds kombinieren On-Premise-Ressourcen mit den Cloud-Diensten eines Hosting-Unternehmens.
Virtual Desktop Infrastructure (VDI) ist eine Virtualisierungslösung, die virtuelle Desktopgruppen bereitstellt und verwaltet. Diese Desktops werden von einem Cloud-Anbieter gehostet und remote von Endbenutzern auf deren lokalen Geräten aufgerufen.
Unter Cloud-Ökonomie versteht man die Untersuchung der finanziellen Kosten, Vorteile und zugrunde liegenden Prinzipien des Cloud Computing. Cloud-Ökonomen analysieren die Marktlandschaft, vergleichen den Return on Investment (ROI) einer Cloud-Strategie mit der eines On-Premise-Hostings und messen die Total Cost of Ownership (TCO) der Cloud-Technologie.
Cloud Engineer ist ein Überbegriff für jeden IT-Experten, der für Design, Wartung, Administration, Planung und Support der Cloud-Infrastruktur zuständig ist. Cloud Engineers haben in der Regel eine Spezialisierung, die in ihrer Berufsbezeichnung ausgewiesen ist: zum Beispiel Cloud Software Engineer, Cloud Security Engineer oder Cloud Network Engineer.
Cloud Governance bezeichnet eine Reihe von Regeln, Richtlinien und Praktiken, die umgesetzt werden, um festzulegen, wie ein Unternehmen Dienste in der Cloud betreibt. Das Ziel eines Cloud-Governance-Frameworks ist, eine verbesserte IT-Sicherheit zu bieten, Risiken zu managen und häufige Fallstricke zu vermeiden.
Eine cloud-integrierte Entwicklungsumgebung oder Cloud IDE (engl. Cloud Integrated Development Environment) ist eine plattformübergreifende, webbasierte Programmierlösung. Da IDEs per Webbrowser verwendet werden, können Entwickler Code von überall und jedem Gerät aus verwalten, ohne irgendwas herunterzuladen oder installieren zu müssen.
Cloud-Management-Plattformen (CMPs) sind integrierte Softwareprodukte, die Public-, Private- und Hybrid-Cloud-Infrastrukturen überwachen und verwalten. Sie dienen als zentraler Bereich für Administratoren, um beispielsweise die allgemeine Ressourcennutzung, die Abrechnung und das Monitoring zu überprüfen. Diese Daten können dann zur Optimierung des IT-Systems verwendet werden.
Cloud-Migration bezeichnet den Prozess, bei dem ein Teil oder die gesamte IT-Infrastruktur eines Unternehmens (digitale Assets, Daten, Datenbanken, Anwendungen etc.) in die Cloud verlagert wird. Der Begriff wird auch verwendet, um den Prozess der Migration von einer Cloud in eine andere zu beschreiben.
Cloud-nativ bezeichnet das Konzept, Anwendungen zu erstellen, die speziell für den Betrieb in Cloud-Umgebungen entwickelt wurden. Cloud-native Programme werden in der Regel mithilfe von Microservices erstellt; das sind kleine, unabhängige Codeeinheiten, die zum Beispiel mit Container-Orchestrierern einfach deployt und skaliert werden können.
Cloud-Betriebssystem umfasst zwei verschiedene Betriebssystemtypen:
1) Ein clientseitiges Betriebssystem, das darauf ausgelegt ist, alle Anwendungen aus der Cloud zu laden (ob aus dem Internet oder einem lokalen Netzwerk).
2) Ein serverseitiges Betriebssystem, das für die Verwaltung von Cloud-Umgebungen und für die Ausführung von Administrationsaufgaben (z. B. VM-Bereitstellung, Ressourcenzuweisung) konzipiert ist.
Eine Cloud-Plattform ist eine Umgebung für die Konzeption, Entwicklung und Verwaltung von Anwendungen in der Cloud. Die Umgebung wird in Form eines Dienstes bereitgestellt und umfasst eine Reihe von Tools, mit denen Benutzer ihre täglichen Aufgaben erledigen können.
Unter Cloud-Portabilität versteht man die Möglichkeit, ein IT-System, Anwendungen und Daten zwischen Cloud-Anbietern zu übertragen. Ein System mit hoher Portabilität kann nahtlos und ohne Integrationsprobleme zwischen Anbietern migriert werden. Eine geringe Portabilität führt zu Integrationsproblemen, Inkompatibilitäten und Portierungsschwierigkeiten.
Ein Cloud-Anbieter ist ein Unternehmen, das seinen Kunden cloud-basierte Produkte auf Pay-as-you-go-Basis oder als Abonnement bereitstellt. Diese Produkte werden unter den Oberbegriffen IaaS, PaaS und SaaS zusammengefasst. Der Cloud-Anbieter übernimmt die Instandhaltung der Hardware seiner Produkte, damit sich Kunden auf ihr Kerngeschäft konzentrieren können.
Ein Pyramidendiagramm mit 3 Ebenen für die Struktur von Cloud-Diensten. Die unterste Ebene ist IaaS (die zugrunde liegende Infrastruktur). Die mittlere Ebene ist PaaS (die Ebene, auf der Softwareentwickler ihre Anwendungen entwickeln und ausführen). Die oberste Ebene ist SaaS (das Endprodukt für Endbenutzer).
Cloud Security oder Cloud-Sicherheit ist ein weit gefasster Begriff für die Kombination von Verfahren, Best Practices und Technologien, die eingesetzt werden, um eine Cloud-Infrastruktur vor internen und externen Bedrohungen zu schützen. Sowohl Cloud-Hosting-Anbieter als auch deren Kunden sind für die optimale Sicherheit in der Cloud verantwortlich. Mehr zu Cloud Security erfahren Sie hier.
Siehe: Cloud-Anbieter.
Man spricht von Cloud Storage (auch Cloud-Speicher), wenn Daten remote von einem Cloud-Hosting-Anbieter gespeichert werden. Die Daten werden dann den Nutzern über das Internet oder eine private Netzwerkverbindung zur Verfügung gestellt. Da der Cloud-Anbieter sich um die Hardware, Sicherheit, Stromversorgung und das Netzwerk kümmert, ist diese Lösung sowohl kosteneffizient als auch flexibel.
Cloud Testing ist ein Überbegriff für die verschiedenen Tests, die für cloud-basierte Produkte durchgeführt werden. Diese können beispielsweise auf Verfügbarkeit (Vermeidung von Downtime), Latenz (Ladezeiten weltweit), Sicherheit (Penetrationstests), Disaster Recovery (zur Vermeidung von Datenverlust/-vernichtung) und Browserkompatibilität getestet werden.
Eine cloud-orientierte Architektur (COA) ist ein konzeptionelles, abstraktes Cloud-Modell, das alle Aspekte der Cloud umfasst – d. h. die allgemeine Struktur eines cloud-basierten IT-Systems und die Art und Weise, wie alle zugrunde liegenden Komponenten miteinander verbunden sind.
Container sind Standardeinheiten von Software, die alle für die Ausführung einer Anwendung erforderlichen Codes und Abhängigkeiten enthalten. Das bedeutet, dass sie problemlos in jeder IT-Umgebung arbeiten und Entwickler sich keine Gedanken um Kompatibilitätsprobleme machen müssen. Container werden von Runtime Engines wie Docker innerhalb eines Orchestrierers wie Kubernetes ausgeführt.
Container-as-a-Service (CaaS) ist ein Cloud-Dienst, mit dem Softwareentwickler und IT-Teams Container mithilfe containerbasierter Virtualisierungstechnologie hochladen, verwalten, deployen, organisieren und skalieren können.
Ein Content Delivery Network (CDN) ist eine Gruppe aus weltweit verteilten Servern. Es legt Inhalte von einem Hauptserver im Cache ab und liefert sie so schnell wie möglich an Internetnutzer auf der ganzen Welt. Wenn beispielsweise ein Benutzer aus den USA Daten von einem in Schweden gehosteten Hauptserver anfordert, kann diese Anfrage an einen CDN-Server in Nordamerika weitergeleitet werden.
CRM (Customer Relationship Management) ist ein Sammelbegriff für den Ansatz eines Unternehmens, um Kundenbeziehungen zu verwalten und die Kundenerfahrung zu optimieren. CRM-Tools sind Softwareprogramme, die von Unternehmen als Teil dieser Strategie verwendet werden.
Anti-DDoS oder DDoS-Schutz ist eine Lösung zur Abwehr von DDoS-Angriffen. Das VAC-System bei OVHcloud erkennt und entfernt unrechtmäßigen Traffic, der sonst dazu führen würde, dass Ihre Dienste nicht mehr erreichbar sind. Der DDoS-Schutz ist standardmäßig für alle OVHcloud Dienste aktiviert. Siehe auch: DDoS-Angriff.
Ein dedizierter oder Dedicated Server ist ein physischer Server, der einem einzelnen Benutzer zugewiesen ist. Der Kunde ist für die Serververwaltung verantwortlich und erhält Root-Zugriff auf seine Maschine. Der Hosting-Anbieter greift nur ein, um die Hardware zu warten und um Benutzeranfragen zur Hardwareänderung (z. B. Hinzufügen von Ressourcen) zu bearbeiten.
Deep Learning ist eine Unterkategorie von Machine Learning. Es wird von neuronalen Netzwerken mit mindestens 3 Schichten angetrieben und ist darauf ausgelegt, die Lernmuster des menschlichen Gehirns nachzuahmen. Ein Deep-Learning-Algorithmus wird mithilfe von Big Data trainiert. Er unterscheidet sich vom herkömmlichen Machine Learning darin, dass er unstrukturierte Daten verarbeitet.
Disaster Recovery Plan (DRP) bezeichnet den Prozess, der von einem Unternehmen präventiv eingerichtet wird, um sowohl auf natürliche als auch auf von Menschen verursachte Katastrophen, die sich auf sein IT-System auswirken, zu reagieren. Der DRP ist darauf ausgelegt, die IT-Infrastruktur so schnell wie möglich wieder in Betrieb zu nehmen, den Zugriff auf kritische Systeme wiederherzustellen und Datenverluste zu vermeiden.
Ein Distributed-Denial-of-Service-Angriff (DDoS-Angriff) ist ein Cyberangriff, bei dem der Angreifer den Server oder die IT-Infrastruktur seines Zielobjekts mit vielen Anfragen von verschiedenen Remote-Standorten regelrecht überflutet. Der Dienst ist nicht dazu in der Lage, zwischen legitimen und vom Angreifer gesendeten Anfragen zu unterscheiden, und als Folge nicht mehr verfügbar.
Das Domain Name System (DNS) ist ein Protokoll, das Domains (z. B. ovhcloud.com) in IP-Adressen (54.39.46.56) übersetzt. Wenn ein Internetnutzer online nach einer Seite sucht, sendet er eine Anfrage. Diese löst die DNS-Auflösung aus. Die Daten oder Ressourcen, die mit der IP-Adresse verbunden sind, werden daraufhin abgerufen und auf dem Gerät des Internetnutzers geladen.
Das File Transfer Protocol (FTP) dient als Standardprozess für die Übertragung von Dateien zwischen Geräten über das Internet und ist heute eine beliebte Methode für die Speicherung von Dateien in der Cloud. Webmaster können Dateien mithilfe von FTP-Client-Software wie FileZilla und Cyberduck von einem Speicherort an einen anderen verschieben.
Eine Firewall ist ein Netzwerksicherheitstool, das ein- und ausgehenden Netzwerkverkehr überwacht und unzulässigen Traffic auf der Grundlage vordefinierter Sicherheitsregeln blockiert. Der am häufigsten verwendete Firewall-Typ ist die Paketfilterung, bei der analysiert wird, ob die Quell- und Ziel-IPs von Datenpaketen mit den Regeln übereinstimmen.
Bei der Green Cloud handelt es sich um einen umweltfreundlichen Ansatz für die Entwicklung und den Betrieb von Cloud-Diensten. Ein Cloud-Anbieter kann eine Green-Cloud-Strategie umsetzen, indem er seinen Stromverbrauch minimiert, die CO2-Bilanz verringert und Hardwarekomponenten wiederverwendet – und damit seine Umweltauswirkungen reduziert.
Hacking ist ein Überbegriff für alle Aktivitäten, die die Sicherheit eines IT-Netzwerks oder einer Infrastruktur gefährden. Dazu gehört z. B. der Zugriff auf ein System ohne Zugriffsberechtigung, die unbefugte Kontrolle über ein Gerät oder auch Datendiebstahl. Große Unternehmen setzen ethische Hacker ein, um Schwachstellen in ihren IT-Systemen zu identifizieren und zu melden.
Ein Host ist ein Hardwaregerät (in der Regel ein Computer oder Server), das über ein Netzwerk mit anderen Geräten verbunden ist, eine IP-Adresse hat und Daten senden, empfangen und speichern kann. Nicht alle Netzwerkgeräte sind Hosts. So werden beispielsweise zwischengeschaltete Geräte wie Router und Switches als Nodes eingestuft.
Ein Host-Server ist ein physischer Server, der Daten, Anwendungen oder virtuelle Maschinen speichert und diese Ressourcen Benutzern bereitstellt. Im Kontext der Cloud-Technologie wird die Hardware des Servers vom Hosting-Anbieter verwaltet und gewartet, während der Kunde für die Konfiguration verantwortlich ist.
Eine Hybrid Cloud ist eine IT-Infrastruktur, die sowohl On-Premise- als auch cloud-basierte Umgebungen miteinander kombiniert. Eine Hybrid Cloud kann zum Beispiel einen On-Premise-Servercluster und eine Gruppe von Public-Cloud-Instanzen beinhalten. Hybrid Clouds eignen sich hervorragend für Kostenkontrolle, erhöhte Redundanz und optimierte Effizienz.
Ein Hypervisor, auch bekannt als VMM (Virtual Machine Monitor), ist eine Art von Software oder Hardware, die auf einem physischen Server installiert ist. Sein Zweck ist das Erstellen, Ausführen, Monitoring und Verwalten von virtuellen Maschinen (VMs), indem jeder VM ein Teil der Hardwareressourcen des Host-Servers zugewiesen wird.
Infrastructure-as-a-Service (IaaS) ist ein Cloud-Computing-Dienst, der virtuelle Ressourcen (z. B. Rechenleistung, Speicherplatz, CPU-Leistung, Netzwerkressourcen) über das Internet bereitstellt. Die Abrechnung erfolgt auf Abonnement-, Pay-as-you-go- oder On-Demand-Basis, sodass Kunden nur für das bezahlen, was sie auch wirklich nutzen.
Das Internet der Dinge (IoT) bezeichnet ein Netzwerk von Geräten, die online miteinander interagieren und Daten austauschen können. Smart-Home-Technologie (z. B. intelligente Heizsysteme mit Sensoren, virtuelle Assistenten und Lautsprechersysteme) ist ein Beispiel für ein IoT-Netzwerk.
Eine IP-Adresse (Internet-Protocol-Adresse) ist eine einzigartige Zeichenfolge, die einem Gerät zugewiesen ist, damit dieses im Internet identifiziert werden kann. Jede Adresse enthält eine Reihe von 4 Ziffern, die durch Punkte voneinander getrennt sind. Die ersten 3 Ziffern der Reihe werden als „Netzwerk-ID“ und die letzte Ziffer als „Host-ID“ bezeichnet.
Künstliche Intelligenz bezeichnet eine Technologie, die dazu in der Lage ist, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern (z. B. Entscheidungsfindung, Problemlösung). Zu den realen Anwendungen von KI gehören Spracherkennung, Bilderkennung und Kundensupport-Chatbots.
Unter Load Balancing (Lastverteilung) versteht man die gleichmäßige Verteilung von Traffic auf eine Gruppe von Servern. Es steigert die Effizienz und verhindert, dass ein einzelner Server von zu vielen Anfragen überlastet wird. Wenn ein Internetnutzer eine Anfrage versendet, erkennt der Load Balancer automatisch, welcher Server den Traffic übernehmen kann.
Ein Log ist eine computergenerierte Datei, die eine detaillierte, mit einem Zeitstempel versehene Liste der Ereignisse enthält, die in einem IT-System auftreten (z. B. Prozesse, Benutzeraktivität, Fehler, ungewöhnliches Verhalten). Dies ist unerlässlich für das Monitoring von Webservices sowie die Ursachenermittlung von Problemen oder anomalen Mustern, die auf diesen auftreten können.
Machine Learning ist eine Unterkategorie der künstlichen Intelligenz, bei der eine Maschine darauf trainiert wird, menschliches Verhalten zu imitieren. Die Maschine „lernt“ aus großen Mengen vorhandener, meist strukturierter Daten. Das Endziel dabei ist, Folgen und Entwicklungen genau vorherzusagen, ohne dass die Maschine explizit dafür programmiert wird.
Die Mitigation oder Abwehr bezeichnet den Prozess, die Auswirkungen eines Cyberangriffs auf eine IT-Infrastruktur zu begrenzen, zu isolieren und zu minimieren. Der integrierte DDoS-Schutz von OVHcloud ist ein Beispiel für eine Abwehrtechnologie, die IT-Systeme vor DDoS-Angriffen schützt.
Ein Network Attached Storage (NAS) ist ein Gerät, das Daten an einem zentralen Ort zusammenführt. Da der NAS an ein Netzwerk angeschlossen ist, können mehrere Benutzer und Geräte gleichzeitig auf die Daten zugreifen – ideal für kollaboratives Arbeiten. Ein NAS-Gerät kann aus einer einzelnen Festplatte oder auch einem ganzen RAID-Array bestehen.
Ein Network File System (NFS) ist ein Mechanismus zum Speichern und Verteilen von Dateien und Verzeichnissen innerhalb eines Netzwerks. Da es sich hierbei um ein verteiltes Dateisystem handelt, können mit dem Netzwerk verbundene Benutzer auf die Dateien und Verzeichnisse zugreifen, als wären diese lokal gespeichert. Das macht es zu einem benutzerfreundlichen und kostengünstigen Speichersystem.
NSX ist eine von VMware herausgegebene Plattform für Netzwerkvirtualisierung und Netzwerksicherheit. Es ist grundsätzlich für Benutzer konzipiert, um virtuelle Netzwerk-Deployments zu verwalten, bietet diesen jedoch auch Zugriff auf eine breite Palette an Diensten zur Optimierung der Sicherheit und Ressourcennutzung (z. B. Load Balancing, verteilte Firewall, Sicherheitsempfehlungen).
Eine NVMe-Festplatte ist eine Solid-State-Festplatte (SSD), die NVMe (Non-Volatile Memory Express) als Speicherzugriffs- und Übertragungsprotokoll verwendet. NMVe greift auf Flash-Speicher über einen PCI-Express- oder PCIe-Bus zu, der Zehntausende von Warteschlangen gleichzeitig verarbeiten kann. Aus diesem Grund sind NVMe-Festplatten wesentlich schneller als andere Laufwerke.
Platform-as-a-Service (PaaS) ist ein Cloud-Computing-Modell, bei dem der Anbieter Benutzern alles Nötige für die Entwicklung eigener Anwendungen bereitstellt. Benutzer von PaaS-Diensten erhalten die grundlegenden Hardwareressourcen und müssen sich unter anderem nicht mehr um die Verwaltung von Betriebssystem- und Datenbanksoftware kümmern.
Eine Private Cloud ist ein IT-Dienst, der Software- und Hardwareressourcen bereitstellt, die ausschließlich einem einzigen Kunden zur Verfügung stehen. Eine solche isolierte Single-Tenant-Umgebung kombiniert die Skalierbarkeit der Cloud mit der Sicherheit einer On-Premise-Infrastruktur.
Eine Public Cloud ist ein IT-Modell, bei dem ein Drittanbieter eine Plattform online bereitstellt, die von mehreren Benutzern geteilt genutzt wird. Die Ressourcen werden entweder auf Grundlage einer nutzungsbasierten Abrechnung (pay as you go) oder mittels fester Abonnements bereitgestellt. Das ist besonders nützlich für Organisationen, die kurzfristige, unvorhersehbare Traffic-Lastspitzen haben.
Ein Rechenzentrum ist ein Gebäude (oder ein Bereich innerhalb eines Gebäudes), in dem alle für den Betrieb einer IT-Infrastruktur erforderlichen Komponenten untergebracht werden. Dazu gehören die Hardware selbst (d. h. die physischen Server, die von Technikern zusammengesetzt und in Racks gelagert werden), die Stromversorgung der Server sowie die Netzwerkanbindung.
In der Informatik ist ein Rack eine Art Rahmengestell, in dem physische Server in Rechenzentren aufbewahrt und mit einem Netzwerk verbunden werden. Darüber hinaus bietet OVHcloud das vRack (Virtual Rack) als Option für die Erstellung privater Verbindungen zwischen dedizierten Servern an.
Bei einem Snapshot handelt es sich um eine Backup-Technik, bei der eine Kopie des aktuellen Zustands eines IT-Systems zu einem bestimmten Zeitpunkt erstellt wird. Snapshots sind besonders nützlich, wenn das System ausfällt und ein früherer Zustand wiederhergestellt werden muss.
Software-as-a-Service (SaaS) ist ein Cloud-Computing-Modell, bei dem ein Drittanbieter Softwareanwendungen hostet und Endbenutzern auf Abonnementbasis bereitstellt. SaaS-Lösungen werden in der Regel über den Webbrowser des Endbenutzers aufgerufen, sodass Benutzer keine Software auf ihrem eigenen PC installieren oder warten müssen.
SQL-Injection ist ein Cyberangriff, bei dem ein Hacker seinen eigenen Code in Abfragen einfügt, die von einer Anwendung an eine Datenbank gesendet werden. Wenn z. B. sensible Daten in einer Datenbank gespeichert werden, für deren Abruf ein Benutzername und ein Kennwort erforderlich sind, gibt der Hacker stattdessen eine SQL-Anweisung ein, die die anvisierten vertraulichen Daten abruft.
Secure Socket Shell (SSH) ist ein Netzwerkprotokoll, das die zwischen zwei Computern ausgetauschten Daten verschlüsselt. Es ist von entscheidender Bedeutung, um Dateitransfers und Benutzerzugriffe auf IT-Systeme abzusichern.
In der IT bezeichnet Speicherplatz den auf einem Server verfügbaren Platz zur Speicherung aller Arten von Daten. Die Methoden für den Zugriff auf einen Speicherplatz können je nach verwendeter Technologie variieren.
Die Verfügbarkeitsrate ist eine Kennzahl, die den Prozentsatz an Zeit misst, in der ein Cloud-Dienst verfügbar ist. Die Formel hierfür lautet: (Garantierte Zeit - Downtime) ÷ Garantierte Zeit. Wird üblicherweise in „Neunen“ gemessen, z. B. „zwei Neunen“ = 99,00 %, „vier Neunen“ = 99,99 %. Für kritische Dienste ist eine hohe Verfügbarkeitsrate absolut unerlässlich.
Bei OVHcloud stellt das VAC einen entscheidenden Bestandteil der Anti-DDoS-Technologie dar, die in alle unsere Lösungen integriert ist. VAC ist die Abkürzung für „vacuum“ (engl. für „absaugen“). Die VAC-Komponente filtert dementsprechend den unerwünschten Traffic während eines DDoS-Angriffs heraus, damit nur legitimer Traffic zum Server des Benutzers gelangt.
Eine vertikale Cloud umfasst eine Reihe von Cloud-Computing-Diensten, die speziell für eine bestimmte Branche oder ein bestimmtes Geschäftsmodell entwickelt wurden. Die Anforderungen an die IT-Infrastruktur und -Sicherheit variieren zum Beispiel erheblich zwischen Gesundheitseinrichtungen, Behörden und Bildungseinrichtungen.
Eine virtuelle Maschine (VM) ist ein „Guest“-Server, der auf einem physischen Server (seinem Host) erstellt wird. Ein Hypervisor weist jeder VM einen Teil der Hardwareressourcen des Hosts zu (CPU, RAM, Storage), wobei die VMs auch mit verschiedenen Betriebssystemen arbeiten können.
Eine Virtual Private Cloud (VPC) ist eine private Cloud-Umgebung, die innerhalb einer Public Cloud bereitgestellt wird. Im Gegensatz zu VMs und VPS, die auf einen einzigen Host (physischen Server) begrenzt sind, wird eine VPC über mehrere Server innerhalb eines Rechenzentrums deployt. Das macht sie ideal für Benutzer mit schwankenden Anforderungen.
Ein Virtual Private Server (VPS) ist eine Art der Webhosting-Plattform, die auf Virtualisierungstechnologie basiert. Benutzern werden garantierte Ressourcen von einem physischen Server zugewiesen und sie erhalten Root-Zugriff auf ihren VPS. Damit verfügen sie über ein ähnliches Maß an Flexibilität und Kontrolle wie bei einem Dedicated Server, allerdings zu einem niedrigeren Preis.
Das vRack (Virtual Rack) ist eine private Netzwerklösung, die die weltweit verteilten dedizierten Server eines Benutzers über einen virtuellen Switch miteinander verbindet. Kurz gesagt funktioniert es wie ein VLAN. Je nach gewähltem Bare-Metal-Server ist das vRack entweder inklusive oder als Option erhältlich.
Virtualisierung bezeichnet eine Technologie, bei der die Hardwareressourcen eines physischen Servers in mehrere, voneinander unabhängige Bereiche aufgeteilt werden. Diese Bereiche können dann für unterschiedliche Zwecke verwendet werden, z. B. für die Bereitstellung von Virtual Private Servern für verschiedene Benutzer. In der Regel wird ein Hypervisor zur Virtualisierung der Hardwareressourcen verwendet.
vSphere ist eine von VMware entwickelte Virtualisierungsplattform, die eine Produktsuite zur Optimierung und Vereinfachung von Cloud-Infrastruktur-Deployments beinhaltet. Bei OVHcloud ist eine gemanagte Version dieser Plattform und eine Lizenz in allen Hosted Private Cloud Paketen enthalten.
In der Informatik werden Weiterleitungen verwendet, um Internetnutzer auf eine andere als die ursprünglich angeforderte Webseite zu leiten. Diese Aktion wird im Allgemeinen eingesetzt, wenn eine Webseite nicht mehr verfügbar ist oder wenn sich die Domain eines Unternehmens mit dessen Markennamen geändert hat.