
Wydajne serwery bare metal do obsługi intensywnych obciążeń
Serwery bare metal o wysokiej wydajności są skonfigurowane tak, aby jak najlepiej obsłużyć Twoje obciążenia. Konfiguracje sprzętu o dużej gęstości i niewielkich opóźnieniach, używanego samodzielnie lub jako część klastra, znajdą zastosowanie w uczeniu maszynowym, grid computingu, przetwarzaniu w pamięci lub aplikacjach wykorzystujących sztuczną inteligencję. Poznaj różne przypadki użycia i dostosuj serwery do Twoich celów i wymagań.


Serwery o wysokiej dostępności do klastrów krytycznych zastosowań
Redundantna architektura systemu zasilania, chłodzenia cieczą, sieci.
Rozwiązanie zaprojektowane dla środowisk produkcyjnych wymagających znacznych zasobów.
Możliwość połączenia Twoich klastrów z Public Cloud lub Hosted Private Cloud.
Możliwość wyboru i dostosowania serwerów służących do budowy klastrów.
Wybierz Twoje serwery

Serwer zoptymalizowany pod kątem szybkiego dostępu do dysku i minimalnego czasu odpowiedzi
Niektóre specyficzne zastosowania wymagają wydajnej pamięci masowej w kontekście operacji IOPS (wejścia / wyjścia na sekundę). Serwer HG IOPS Intensive jest przeznaczony do masowej analizy danych, hostowania aplikacji symulacji cyfrowej oraz aplikacji wideo o bardzo wysokiej rozdzielczości. Jest to również idealny sprzęt, na którym można zbudować, a potem utrzymywać wydajny sklep internetowy. Dyski SSD NVMe, w które wyposażony jest serwer, spełnią Twoje najwyższe wymagania dzięki niskiemu czasowi odpowiedzi i wyjątkowej szybkości. Są one średnio sześć razy wydajniejsze niż SSD korzystające z interfejsu SATA.

Serwer o wysokiej gęstości mocy zaprojektowany do zarządzania masowym przetwarzaniem danych
Zastosowany samodzielnie lub w klastrze, serwer obliczeniowy o wysokiej gęstości mocy, umożliwia skuteczne zarządzanie dynamicznymi obciążeniami w Twojej infrastrukturze. Jest to doskonała opcja, którą możesz wykorzystać zarówno do hostowania aplikacji do obliczeń o wysokiej wydajności (HPC), jak i rozwiązań analizujących dane. Ten model serwera przeznaczony do Big Data jest kompatybilny z najpopularniejszymi platformami do przetwarzania danych, takimi jak Hadoop oraz bazy danych SQL i NoSQL. Dzięki niemu zarządzanie wymagającymi bazami danych, takimi jak Apache Cassandra, Microsoft SQL Server lub MongoDB staje się łatwiejsze.

Serwer HG AI i Machine Learning
Serwer zaprojektowany do przetwarzania równoległych obliczeń niezbędnych do uczenia maszynowego Konfiguracja, wyposażona w komponenty najnowszej generacji, pozwoli w pełni wykorzystać zalety karty graficznej NVIDIA Tesla P100 - najpopularniejszego na świecie akceleratora do intensywnych obliczeń równoległych. Korzystaj ze wszystkich frameworków Deep Learning akcelerowanych przez Tesla P100 i wybieraj z ponad 450 aplikacji HPC.

Serwer zaprojektowany do zarządzania obciążeniami w pamięci
Zwyczajowo dane są archiwizowane na dysku twardym lub SSD, a kiedy są przetwarzane, przesyłane są do pamięci RAM. Liczne operacje odczytu i zapisu na dysku mogą spowolnić proces, zwłaszcza jeśli pamięć RAM nie jest wystarczająco duża. Serwer HG In-Memory Database jest stworzony do obsługi systemu zarządzania bazami danych w pamięci (DBMS). System ten jest używany do zwiększenia wydajności zapytań oraz aplikacji, które wymagają dostępu do danych. Dane rezydują w pamięci, co ma na celu ograniczenie dostępu do dysku.
Kluczowe cechy
Sieć o wysokiej wydajności
Serwery, zaprojektowane z myślą o wysokiej dostępności i odporności na błędy, wykorzystują prywatną sieć vRack zapewniającą płynny przesył danych (do 10 Gbps) w bezpiecznej sieci VLAN. Są zatem idealne do budowy jeziora danych, które połączysz z naszym rozwiązaniami chmury publicznej.
Otwarty ekosystem
Do AI i Machine Learning korzystaj z frameworków, jak Caffe2, Cognitive toolkit, PyTorch, TensorFlow i wielu innych. Bazują one na bibliotekach akcelerowanych przez NVIDIA Tesla P100, cuDNN i NCCL, które są zaprojektowane z myślą o dostarczaniu optymalnych wyników uczenia.
Szybki dostęp do dysku i minimalne opóźnienie
Do 587 000 IOPS w trybie odczytu i 184 000 IOPS w trybie zapisu pozwala przyspieszyć działanie baz danych NoSQL, wyszukiwarek, magazynów danych, wykonywanie analiz w czasie rzeczywistym oraz aplikacje do buforowania zapisu na dysku.
Hot Swap
Wszystkie dyski twarde i dyski SSD (SAS, SATA, NVMe) można wymienić bez wyłączania serwera. Dzięki temu, w przypadku gdy chcesz zwiększyć pojemność dysku, ciągłość usługi nie zostanie przerwana.
Professional Services dla Twojej firmy


Co to jest cluster computing?
Cluster computing to łączenie wielu komputerów lub serwerów w celu maksymalizacji wydajności i dostępności. Kluczową różnica pomiędzy cloud computingiem a cluster computingiem polega na tym, że przetwarzanie w klastrach opiera się na łączeniu rozwiązań fizycznych, a nie wirtualnych. OVHcloud pozwala na tworzenie klastrów serwerów we wszystkich swoich centrach danych z dowolnym rozwiązaniem chmurowym przy wykorzystaniu bezpiecznej prywatnej sieci vRack.
Istnieje wiele potencjalnych zastosowań takich architektur (w tym równoważenie obciążeń pomiędzy serwerami), które pozwalają zmaksymalizować spójność, zapewnić redundancję w przypadku awarii sprzętu lub zagwarantować najwyższy poziom wydajności dla aplikacji intensywnie zużywających zasoby.
Niezależnie od zastosowania, sprzęt jest kluczowym elementem każdego rodzaju rozwiązania cluster computing o wysokiej wydajności. Ponieważ rozwiązania te są zazwyczaj wykorzystywane w przypadku najbardziej wymagających obciążeń, wszystkie komponenty (w tym procesory i GPU) muszą spełniać najwyższe standardy, a wszystkie połączenia między serwerami muszą być szybkie i bezpieczne. Kluczowe znaczenie ma również możliwość personalizacji. Wszystkie serwery wykorzystywane jako część klastrów o wysokiej wydajności oferują swobodę dostosowania sprzętu do konkretnych zastosowań i są w pełni kompatybilne z najczęściej używanymi platformami przetwarzania danych.
Dlaczego cluster computing jest ważny dla Twojej firmy?
Wciąż rośnie liczba firm, które wymagają mocy dla intensywnych obciążeń i chcą skorzystać z możliwości oferowanych przez Big Data, sztuczną inteligencję i Machine Learning. Odpowiedzią na ich zapotrzebowanie są wydajne i elastyczne klastry przeznaczone do wielu zastosowań.
Należy jednak pamiętać, że uruchomienie, zarządzanie i utrzymywanie lokalnej architektury klastrów może być niezwykle kosztowne i czasochłonne. Jest to szczególnie trudne, gdy szybkie wdrożenie jest niezbędne, aby obsłużyć specyficzne obciążenie lub przewidywany wzrost ruchu.
Wstępnie skonfigurowany klaster w dowolnym centrum danych OVHcloud eliminuje te problemy, zapewniając jednocześnie elastyczność, bezpieczeństwo i kontrolę, których nie zagwarantuje infrastruktura uruchomiona lokalnie. Możesz dowolnie skonfigurować wydajne serwery i dostosować je do obciążeń. Następnie nasi eksperci jak najszybciej skonfigurują i wdrożą Twój klaster.
Dzięki temu Twoje zespoły mogą skupić się na projektach i ciągłym rozwoju, zachowując pełną autonomię w zarządzaniu klastrami za pośrednictwem Panelu klienta. Zyskujesz również pewność, że Twój sprzęt jest zarządzany i utrzymywany przez ekspertów wyspecjalizowanych w zarządzaniu infrastrukturą centrów danych.