So konfigurieren Sie Nginx als Lastausgleich mit Beispiel
- 4721
- 167
- Tamina Liebach
Nginx ist eine beliebte Open-Source-Webserver-Software, die auch als Lastausgleich genutzt werden kann. Load Balancing ist eine Technik, die eingehende Verkehr über mehrere Server verteilt, um die Leistung zu verbessern, die Verfügbarkeit zu erhöhen und einen Überladen eines einzelnen Servers zu vermeiden. In diesem Artikel werden wir diskutieren, wie Nginx als Lastausgleich mit einem Beispiel konfiguriert werden kann.
So konfigurieren Sie Nginx als Lastausgleicher, benötigte die folgenden Schritte:
- Installieren Sie den NGINX -Webserver
- Konfigurieren Sie den Upstream und fügen Sie alle Knoten von Backend -Servern hinzu
- Setup Proxy_Pass -Speicherort mit dem Upstream
- Starten Sie den Nginx -Server neu, um Änderungen anzuwenden
- Testen Sie das Nginx Load Balancer -Setup
Befolgen wir die Schritte einzeln, um die NGINX -Konfiguration zu vervollständigen, um als Lastausgleicher zu fungieren.
Schritt 1: Installieren Sie Nginx
Der erste Schritt besteht darin, NGINX auf dem Server zu installieren, der als Lastausgleich fungiert. Nginx kann mit dem Paketmanager auf den meisten Linux -Verteilungen installiert werden. Zum Beispiel können Sie auf Ubuntu den folgenden Befehl ausführen:
sudo apt-Get-Update
sudo apt-get install nginx
Auf rhelbasierten Systemen können Sie den folgenden Befehl verwenden, um NGINX zu installieren:
sudo yum install nginx
Das moderne rhelbasierte System verwendet DNF Paket Manager.
Schritt 2: Konfigurieren von Upstream -Servern
Der nächste Schritt besteht darin, die Server zu definieren, die den Verkehr vom Lastausgleich empfangen. Diese Server sind als Upstream -Server bekannt. Sie können sie in der Nginx -Konfigurationsdatei definieren /etc/nginx/nginx.Conf. Öffnen Sie die Datei in einem Texteditor und fügen Sie den folgenden Code hinzu:
http Upstream MyApp Server 192.168.10.201; Server 192.168.10.202;123456 | http Upstream MyApp Server 192.168.10.201; Server 192.168.10.202; |
In diesem Beispiel haben wir eine vorgelagerte Gruppe namens definiert "meine App" Dazu gehören zwei Server: 192.168.10.201 Und 192.168.10.202. Dies sind die Server, die Verkehr vom Lastausgleich erhalten.
Schritt 3: Konfigurieren von Lastausgleichs
Nachdem wir unsere Upstream -Server definiert haben, können wir den Lastausgleich konfigurieren. Fügen Sie den folgenden Code zum HTTP -Block in hinzu nginx.Conf:
http Upstream MyApp Server 192.168.10.201; Server 192.168.10.202; server listen 80; Ort/proxy_pass http: // myapp;12345678910111213 | http Upstream MyApp Server 192.168.10.201; Server 192.168.10.202; server listen 80; Ort/proxy_pass http: // myapp; |
In diesem Code haben wir einen Serverblock definiert, der auf Port 80 hört (den Standard -HTTP -Port). Der Ort / der Block gibt den URL -Pfad an, der auf die vorgelagerten Server weitergeleitet werden sollte. Der Proxy_Pass Die Richtlinie fordert Nginx an, eingehende Anfragen an die zu leiten "meine App" Upstream -Gruppe, die wir zuvor definiert haben.
Schritt 4: Nginx neu starten
Starten Sie schließlich Nginx neu, um die Änderungen in der Konfigurationsdatei anzuwenden. Führen Sie den folgenden Befehl aus:
sudo service nginx neu starten
Schritt 5: Testen des Lastausgleichs
Um den Load Balancer zu testen, können wir einen Webbrowser oder ein Tool wie Curl verwenden, um HTTP -Anforderungen an den Server zu senden. Wenn wir auf die im Speicherort / Block konfigurierte URL zugreifen, leitet NginX die Anforderung an einen der vorgelagerten Server in der "meine App" Gruppe.
Wenn alles richtig funktioniert, sollten Sie die Antwort von einem der stromaufwärts gelegenen Server sehen. Sie können bestätigen, dass die Last auf beiden Servern ausgewogen wird, indem Sie die Seite mehrmals aktualisieren und die IP -Adresse des Servers überprüfen, die auf jede Anforderung reagiert.
Abschluss
Das Konfigurieren von Nginx als Lastausgleich ist ein einfacher Prozess, der dazu beitragen kann, die Leistung und Verfügbarkeit von Webanwendungen zu verbessern. Durch das Definieren von Upstream -Servern und das Konfigurieren des Load Balancer können Sie eingehende Datenverkehr auf mehrere Server verteilen und vermeiden, einen einzelnen Server zu überladen.
- « So installieren Sie Apache/PHP 7 auf CentOS/RHEL 7.6/6.9 und Fedora 31/30
- So bereitstellen Sie Ruby Application mit Passagier und Apache auf CentOS 7/6, Fedora 27 »