
Zarządzaj zmiennymi obciążeniami Twojej aplikacji
Bezpłatny, wcześniejszy dostęp zarezerwowany jest dla użytkowników Managed Kubernetes Service.
Projekty szybko się rozwijają, a aplikacja musi podołać wzrostom ruchu. Niezwykle ważne jest zapewnienie ciągłości jej działania oraz zagwarantowanie niezmiennie wysokiego poziomu usług. Dlatego właśnie aplikacje cloud bazują zazwyczaj na rozproszonych architekturach. Są one solidniejsze i pozwalają szybko zwiększać obciążenia. Load Balancer w sposób automatyczny i bezpieczny równoważy obciążenie aplikacji na wielu węzłach w czasie rzeczywistym.
Dostępność: 99,99%
Load Balancer został zaprojektowany w oparciu o rozproszoną architekturę, aby zapewnić wysoki poziom dostępności i odporności usług.
Automatyczne zarządzanie węzłami
Gdy jeden z węzłów przestaje działać prawidłowo, zostaje on automatycznie usuwany z listy węzłów przeznaczonych do rozdzielenia. Ułatwia to zarządzanie pracami konserwacyjnymi i wyłączeniami.
Bezpośrednia integracja z Kubernetesem
Load Balancer posiada interfejs kompatybilny z Kubernetesem. Dzięki temu zarządzasz Load Balancerem przy użyciu standardowych narzędzi.
TCP | 10 000 połączeń |
HTTP | 2000 zapytań/sekundę |
Przepustowość | 200 Mbps |
Przykłady zastosowania
Specyfikacja
Oferta Load Balancer stale się rozwija. Aktualnie parametry usługi są następujące:
TCP | 10 000 połączeń |
HTTP | 2000 zapytań/sekundę |
Przepustowość | 200 Mbps |
W najbliższym czasie będziemy mogli elastycznie dopasowywać ofertę do wyższych wymagań.
Wdrożenie
Dodaj Load Balancer
kubectl -f apply load_balancer.yaml
Usuń Load Balancer
kubectl delete service load-balancer
Funkcje
Natychmiastowa aktualizacja
Utwórz Load Balancer w czasie krótszym niż jedna minuta i zaktualizuj go niemal natychmiast. Dzięki temu możesz bardzo szybko reagować na wzrosty ruchu.
Interfejs Kubernetes
Utwórz Load Balancer i zarządzaj nim bezpośrednio w interfejsie Kubernetes.
Protokoły „health check multiples”
Zdefiniuj warunki wykluczenia węzła według własnych kryteriów: klasyczna weryfikacja TCP (już dostępna), odpowiedź aplikacji lub kod HTTP (wkrótce dostępne).
Protokół proxy
Użycie protokołu proxy na Load Balancerze umożliwia zachowanie pierwotnego adresu nadawcy. Dzięki temu wykonasz najistotniejsze czynności na poziomie węzłów, takie jak filtrowanie adresów IP, generowanie statystyk czy analiza logów.
Filtry adresu IP
Wybierz domyślne filtrowanie dostępów i podaj ograniczoną listę adresów IP, które mogą łączyć się z używanym przez Ciebie rozwiązaniem.
Szyfrowanie TLS (wkrótce dostępne)
Większość aplikacji komunikuje się z protokołem szyfrowania TLS. Load Balancer od OVHcloud wykorzystuje ten protokół dzięki certyfikatowi dostarczonemu przez użytkownika lub certyfikatowi zarządzanemu przez usługę.
Połączenie z prywatnymi sieciami (wkrótce dostępne)
Dzięki usłudze vRack, Load Balancer może posłużyć jako brama pomiędzy publicznymi adresami IP a sieciami prywatnymi. Dzięki temu węzły aplikacji pozostaną tylko w sieci prywatnej.
Kompatybilność z instancjami (wkrótce dostępne)
Load Balancer może zarządzać kilkoma rodzajami węzłów, takimi jak kontenery obsługiwane przez Kubernetesa lub klasyczne instancje obsługiwane przez OpenStack.

Płatności za Load Balancer
Użycie Load Balancera rozliczane jest w trybie za godzinę.
Inne produkty
Co to jest równoważenie obciążenia w chmurze?
Jest to operacja, dzięki której obciążenie zostaje rozproszone na kilka elementów zdolnych do wykonania danego zadania. W chmurze obciążenie najczęściej rozpraszane jest pomiędzy wiele połączeń sieciowych.
Jak działa Load Balancer?
Równoważenie obciążenia odbywa się zgodnie z zasadami ustanowionymi przez operatora. Gdy mamy do czynienia z połączeniami sieciowymi, najczęściej stosowane jest równoważenie „równomierne” lub "ważone". W przypadku równoważnia aplikacji można tę operację przeprowadzić na przykład zgodnie z regułami routingu w zależności od dostarczanej treści lub identyfikacji użytkowników.