Um im dynamischen Kontext moderner Anwendungen herausragende Nutzererfahrungen gewährleisten zu können, muss vor allem die Lastverteilung (Load Balancing) gut funktionieren. In der Regel greifen Kunden darauf zurück, um ihre vorhandenen Infrastrukturressourcen optimal zu nutzen. Allerdings kann man dabei nicht auf eine sofort einsatzbereite Einheitslösung zurückgreifen. Je eingehender Sie sich mit den Anforderungen an die Gestaltung Ihres Datenverkehrs beschäftigen und je höher die Komplexität Ihrer Architektur, desto mehr verschiedene Varianten der Lastverteilung sind normalerweise erforderlich, um die von Ihnen verfolgten Ziele zu erreichen – unter anderem die Steuerung des öffentlichen Traffics zwischen Rechenzentren, die Gewährleistung größtmöglicher Verfügbarkeit maßgeblicher interner Dienste mit privaten IP-Adressen und die Steuerung des Datenverkehrs zwischen Servern innerhalb eines Rechenzentrums. Wir freuen uns daher, eine neue Ergänzung zu unserer Lastverteilungslösung mit tiefgreifender Integration in das Zero Trust-Konzept vorstellen zu können: Local Traffic Management (LTM).
Unternehmen stellen häufig fest, dass so gut wie kein einzelner Anbieter all diese Anforderungen erfüllen kann. Um unterschiedliche Datenquellen zu verwalten und sich einen besseren Überblick über ihre Traffic-Pipeline zu verschaffen, müssen sie deshalb auf eine wachsende Zahl von Dienstleistern zurückgreifen und in unglaublich teure Hardware mit hohem Einrichtungs- und Wartungsaufwand investieren. Ob ein Unternehmen vorausschauend handelt und ein gesundes Wachstum verzeichnet oder immer erst im Nachhinein reagiert und ständig mit der Bewältigung von Notfällen befasst ist, hängt unter Umständen davon ab, ob es intern über eine gemeinsame Datengrundlage verfügt und ob es sich in Fällen, in denen etwas nicht optimal läuft, an einen einzigen Ansprechpartner wenden kann. Die Notwendigkeit, ständig Krisen zu meistern, kann die Entwicklung großartiger Funktionen und Dienste erheblich behindern und unter anderem zu Umsatzeinbußen führen, das Vertrauen in die Marke untergraben oder die Akzeptanz dieser Funktionen und Dienste beeinträchtigen.
Seit acht Jahren bieten wir Tausenden von Kunden auf der ganzen Welt erstklassige GTM (Global Traffic Load Balancing)-Funktionen an. Aber warum sollten die Informationen zur Optimierung der Traffic-Steuerung sowie die von uns garantierte Ausfallsicherheit und Zuverlässigkeit nur für öffentlichen Datenverkehr gelten und vor dem ausgewählten Rechenzentrum Halt machen? Wir sind zu dem Schluss gekommen, dass wir noch weiter gehen sollten. Deshalb beginnen wir heute mit der Einführung einer langen Reihe neuer Funktionen, die nach Auswahl des Rechenzentrums unter anderem Traffic-Steuerung, Failover, Aufrechterhaltung von Sitzungen und SSL/TLS-Auslagerung zwischen Servern ermöglichen. Um zu bestimmen, an welchen Server der Datenverkehr gesendet werden soll, brauchen Sie künftig nicht mehr ausschließlich auf eine relative Gewichtung zurückzugreifen. Es ist jetzt möglich, dieselben smarten Steuerungsrichtlinien, z. B. die Leitung des Traffics an die Server, bei denen die wenigsten Anfragen ausstehen, oder die Hash-Steuerung, auf jedes Ihrer Rechenzentren anzuwenden. Das bedeutet auch, dass Sie über einen einzigen Ansprechpartner für alle Ihre Lastverteilungsinitiativen und eine einzige Steuerungsebene verfügen, um Geschäftsentscheidungen zu treffen. Cloudflare freut sich, die leistungsstarke Kombination aus der Unterstützung privater IP-Adressen für die Lastverteilung mit Cloudflare Tunnel und lokalem Traffic-Management (LTM) zu präsentieren. Damit können wir unseren Kunden eine Lösung bieten, die unvergleichliche Effizienz, Sicherheit, Flexibilität und Datenschutz vereint.
Was versteht man unter Lastverteilung?
Der Load Balancer von Cloudflare leitet die Anfrage eines Nutzers an die entsprechende Gruppe von Ursprungsservern innerhalb eines Rechenzentrums weiter.
Lastverteilung ist eine Funktion, die Unternehmen seit 30 Jahren bei der Nutzung ihrer Infrastrukturressourcen unterstützt. Load Balancing funktioniert durch die proaktive Lenkung des Datenverkehrs weg von nicht intakten Ursprungsservern und – bei fortschrittlicheren Lösungen – durch eine smarte Verteilung der Datenverkehrslast auf Grundlage verschiedener Steuerungsalgorithmen. Dieses Verfahren stellt sicher, dass Endnutzer keine Fehlermeldungen erhalten, und ermöglicht es Unternehmen, die allgemeinen Geschäftsziele eng mit dem Verhalten ihres Traffics zu verknüpfen. Die Lastverteilung von Cloudflare erleichtert und vereinfacht die sichere und zuverlässige Verwaltung des Datenverkehrs für mehrere Rechenzentren auf der ganzen Welt. Der Traffic wird unabhängig von seinem Volumen und seinem Ursprung zuverlässig an sein Ziel geleitet – mit anpassbarer Steuerung, Aufrechterhaltung der Sitzung und Ausfallsicherung. Das ist ein klarer Vorteil gegenüber einem physischen Load Balancer, da sich die Lösung leicht konfigurieren lässt und der Datenverkehr nicht erst eines Ihrer Rechenzentren erreichen muss, um dann an einen anderen Standort weitergeleitet zu werden, wodurch Single Point of Failures und erhebliche Latenz entstehen. Die Lastverteilung von Cloudflare ist einfacher einzurichten und leichter zu verstehen als andere Load Balancer. Außerdem lässt sie sich vollständig in die Cloudflare-Plattform integrieren, sodass ein einziges Produkt alle Lastverteilungsanforderungen erfüllen kann.
Was versteht man unter Cloudflare Tunnel?
Mit Cloudflare Tunnel können Ursprungsserver und andere Arten von Servern eine Verbindung zu Cloudflare herstellen. Nutzer können ihren Datenverkehr auch mit WARP absichern, sodass er sich lückenlos (Ende-zu-Ende) über Cloudflare schützen und verwalten lässt.
2018 haben wir Cloudflare Tunnel eingeführt. Dabei handelt es sich um eine private, sichere Verbindung zwischen Ihrem Rechenzentrum und Cloudflare. Von dem Moment an, in dem eine Internetpräsenz bereitgestellt wird, verbringen Entwickler normalerweise viel Zeit und Energie mit ihrer Abschirmung durch Zugangskontrolllisten, rotierende IP-Adressen oder komplexere Lösungen wie GRE-Tunnel. Wir haben Tunnel entwickelt, um diesen Aufwand zu verringern. Mit der Lösung können Nutzer eine private Verbindung von ihrem Ursprungsserver direkt zu Cloudflare herstellen, ohne Ihre Dienste unmittelbar dem öffentlichen Internet auszusetzen oder eingehende Verbindungen durch die Firewall Ihres Rechenzentrums zuzulassen. Stattdessen wird diese private Verbindung durch die Ausführung eines ressourceneffizienten Daemons, cloudflared, in Ihrem Rechenzentrum hergestellt. Dabei handelt es sich um eine sichere, ausschließlich ausgehende Verbindung. Somit kann nur der Datenverkehr, den Sie für den Durchgang durch Cloudflare konfiguriert haben, Ihren privaten Ursprungsserver erreichen.
Das Potenzial der Lastverteilung mit Cloudflare Tunnel voll ausschöpfen
Mit der Load Balancing-Lösung von Cloudflare kann die Anfrage eines Nutzers durch den Einsatz von Cloudflare Tunnel einfach und sicher zu einem bestimmten Ursprungsserver innerhalb Ihres privaten Rechenzentrums oder Ihrer Public Cloud geleitet werden.
Die Kombination von Cloudflare Tunnel mit unserer Lastverteilung ermöglicht es Ihnen, Ihre physischen Load Balancer aus Ihrem Rechenzentrum zu entfernen. Stattdessen kontaktiert der Load Balancer von Cloudflare Ihre Server direkt über deren private IP-Adressen für Integritätsprüfungen, zur Steuerung des Traffics und zum Einsatz aller anderen derzeit verfügbaren Load Balancing-Funktionen. Anstatt Ihren lokalen Load Balancer so zu konfigurieren, dass er jeden Dienst offenlegt und dann den Load Balancer von Cloudflare zu aktualisieren, können Sie die gesamte Konfiguration –vom Endnutzer bis zu dem die Anfrage bearbeitenden Server – an einem einzigen Ort vornehmen: dem Cloudflare-Dashboard. Darüber hinaus können Sie sich von Hardware, die sechsstellige Beträge kostet, von unglaublichem Verwaltungsaufwand und von Investitionen in eine Lösung mit zeitlich begrenztem Nutzen verabschieden.
Die Lastverteilung dient als Rückgrat für Online-Dienste und sorgt für eine nahtlose Verteilung des Datenverkehrs auf Server oder Rechenzentren. Herkömmliche Load-Balancing-Verfahren erfordern häufig die Bereitstellung von Diensten über die öffentlichen IP-Adressen eines Rechenzentrums. Das zwingt Unternehmen dazu, komplexe Konfigurationen vorzunehmen, die Sicherheitsrisiken bergen und potenziell anfällig für Datenlecks machen. Durch die Unterstützung privater IP-Adressen bei der Lastverteilung in Verbindung mit Cloudflare Tunnel revolutioniert Cloudflare die Art und Weise, wie Unternehmen ihre Anwendungen schützen und optimieren. Klare Schritte zur Installation des cloudflared-Agenten, um Ihr privates Netzwerk über Cloudflare Tunnel mit dem Netzwerk von Cloudflare zu verbinden, machen das direkte und sichere Routing von Datenverkehr zu Ihren Rechenzentren einfacher als je zuvor.
Dienste in privaten Rechenzentren öffentlich zugänglich zu machen ist kompliziert
Die Anfrage eines Besuchers trifft auf einen Global Traffic Management (GTM)-Load Balancer. Dieser leitet sie erst an ein Rechenzentrum, dann an eine Firewall, im Folgenden an einen Local Traffic Management (LTM)-Load Balancer und schließlich an den Ursprungsserver weiter.
Lastverteilung innerhalb eines privaten Rechenzentrums ist unter Umständen kostspielig und schwer zu verwalten. Die Sicherheit in den Vordergrund zu stellen und gleichzeitig Benutzerfreundlichkeit und Flexibilität für Ihre internen Mitarbeitenden zu gewährleisten, ist ein schwieriges Unterfangen. Es geht nicht nur um das „Wie“ der sicheren Bereitstellung interner Dienste, sondern auch darum, auf welche Weise der Datenverkehr zwischen Servern an einem einzigen Standort innerhalb Ihres privaten Netzwerks am besten verteilt werden kann.
In einem privaten Rechenzentrum kann selbst eine sehr einfache Website im Hinblick auf Vernetzung und Konfiguration relativ komplex sein. Gehen wir ein einfaches Beispiel durch, bei dem ein Kundengerät eine Verbindung zu einer Website herstellt. Es führt eine DNS-Abfrage für die Website des Unternehmens durch und erhält eine IP-Adresse, die einem Rechenzentrum des Kunden entspricht. Der Kunde stellt dann eine HTTPS-Anfrage an diese IP-Adresse und übermittelt den ursprünglichen Hostnamen per Server Name Indication (SNI). Der Load Balancer leitet diese Anfrage an den entsprechenden Ursprungsserver weiter und sendet die Antwort an das Kundengerät zurück.
Dieses Beispiel umfasst keine erweiterten Funktionen. Trotzdem ist bereits diese Konstellation schwer zu konfigurieren:
Stellen Sie den Dienst oder Server über eine private IP-Adresse bereit.
Konfigurieren Sie das Netzwerk Ihres Rechenzentrums so, dass der Load Balancer auf einer öffentlichen IP-Adresse oder einem öffentlichen IP-Adressbereich erreichbar ist.
Konfigurieren Sie Ihren Load Balancer so, dass er Anfragen für diesen Hostnamen und/oder die öffentliche IP-Adresse an die private IP-Adresse Ihres Servers weiterleitet.
Konfigurieren Sie einen DNS-Eintrag für Ihre Domain, der auf die öffentliche IP-Adresse Ihres Load Balancers verweist.
In großen Unternehmen muss jede dieser Konfigurationsänderungen wahrscheinlich von mehreren Beteiligten genehmigt und über verschiedene Repositorys, Websites und/oder private Webschnittstellen geändert werden. Load Balancer- und Netzwerkkonfigurationen werden häufig in Form komplexer Konfigurationsdateien für Terraform, Chef, Puppet, Ansible oder einen ähnlichen Infrastructure as Code-Dienst gepflegt. Diese Konfigurationsdateien lassen sich auf ihre Syntax hin überprüfen oder testen, werden aber selten vor der Bereitstellung gründlichen Tests unterzogen. Bereitstellungsumgebungen sind oft so einzigartig, dass ein gründliches Testen angesichts des dafür erforderlichen Zeit- und Hardwareaufwands nicht möglich ist. Das bedeutet, dass sich Änderungen an diesen Dateien negativ auf andere Dienste innerhalb des Rechenzentrums auswirken können. Darüber hinaus wird durch die Öffnung eines Zugangs zu Ihrem Rechenzentrum die Angriffsfläche für verschiedene Sicherheitsrisiken wie DDoS-Angriffe oder katastrophale Datenlecks vergrößert. Erschwerend kommt hinzu, dass jeder Anbieter über eine andere Schnittstelle oder API für die Konfiguration seiner Geräte oder Dienste verfügt. Einige Registrare haben beispielsweise nur XML-APIs, andere JSON-REST-APIs. Für jede Gerätekonfiguration gibt es möglicherweise unterschiedliche Terraform-Anbieter oder Ansible-Playbooks. Das führt dazu, dass sich im Lauf der Zeit komplexe Konfigurationen ansammeln, die sich nur schwer zusammenführen oder standardisieren lassen, wodurch unweigerlich technische Schulden entstehen.
Fügen wir nun weitere Ursprungsserver hinzu. Jeder zusätzliche Ursprungsserver für unseren Service muss eingerichtet und freigegeben werden. Außerdem muss der physische Load Balancer so konfiguriert werden, dass er den neuen Ursprungsserver nutzt. Fügen wir nun ein weiteres Rechenzentrum hinzu. Jetzt brauchen wir eine andere Lösung, um die Daten über unsere Rechenzentren zu verteilen. Die Folge sind zwei gesonderte Systeme zur Verwaltung des Traffic: ein globales und ein lokales. Diese Lösungen werden normalerweise von verschiedenen Anbietern bereitgestellt und müssen auf unterschiedliche Weise konfiguriert werden, obwohl sie demselben Zweck dienen sollten, nämlich der Lastverteilung. Das macht die Verwaltung Ihres Webdatenverkehrs unnötig schwierig. Warum sollten Sie Ihre Ursprungsserver in zwei verschiedenen Load Balancern konfigurieren müssen? Weshalb können Sie nicht den gesamten Traffic für alle Ursprungsserver eines Diensts an einem Ort verwalten?
Einfacher und besser: Lastverteilung mit Tunnel
Mit der Lastverteilung von Cloudflare kann der Datenverkehr für alle Ihre Büros, Rechenzentren, Remote-Nutzer sowie Public, Private und Hybrid Clouds von einem Ort aus verteilt werden.
Die Lastverteilung und Cloudflare Tunnel ermöglichen es Ihnen, alle Ihre öffentlichen und privaten Ursprungsserver an einem Ort zu verwalten: dem Cloudflare-Dashboard. Unsere Load Balancer lassen sich unkompliziert über das Dashboard oder unsere API konfigurieren. Zur Änderung der Konfigurationen Ihrer öffentlichen oder privaten Server brauchen Sie weder SSH, noch müssen Sie einen Remote-Desktop öffnen. Vielmehr können alle Konfigurationen über das Dashboard oder die Cloudflare-API vorgenommen werden, wobei beide absolut gleichwertig sind.
Sobald Cloudflare Tunnel in Ihrem Rechenzentrum eingerichtet ist und läuft, kann Ihr Ursprungsserver mit dem Cloudflare-Netzwerk und den Load Balancern verbunden werden. Sie müssen keine Konfiguration für Traffic vornehmen, der bei Ihrem Rechenzentrum eingeht, da Cloudflare Tunnel nur über ausgehende Verbindungen arbeitet und auf sichere Weise mit Diensten mit privater IP-Adresse innerhalb Ihres Rechenzentrums Kontakt aufnehmen kann. Um Ihren Dienst für Cloudflare freizugeben, müssen Sie lediglich Ihren privaten IP-Adressbereich so einrichten, dass er über diesen Tunnel geroutet wird. Dann können Sie einen Cloudflare Load Balancer erstellen und die entsprechende private IP-Adresse und virtuelle Netzwerk-ID bei Ihrer Gruppe von Ursprungsservern eingeben. Danach verwaltet Cloudflare das DNS und die Lastverteilung über Ihre privaten Server. Jetzt empfängt Ihr Ursprungsserver den Datenverkehr ausschließlich über Cloudflare Tunnel und Ihr physischer Load Balancer wird nicht mehr benötigt.
Diese bahnbrechende Integration ermöglicht es Unternehmen, Load Balancer einzusetzen und gleichzeitig ihre Anwendungen sicher vom öffentlichen Internet abzuschirmen. Der Traffic des Kunden wird über die Rechenzentren von Cloudflare geleitet, sodass dieser weiterhin die Sicherheits- und Performance-Dienste von Cloudflare in vollem Umfang nutzen kann. Durch den Einsatz von Cloudflare Tunnel verbleibt der Datenverkehr zwischen Cloudflare und dem Kunden innerhalb vertrauenswürdiger Netzwerke und wird isoliert. Das ist gut für den Datenschutz, die Sicherheit und den Seelenfrieden.
Die Vorteile der Unterstützung privater IP-Adressen durch Cloudflare Tunnel
Cloudflare Load Balancing funktioniert in Verbindung mit allen von uns angebotenen Sicherheits- und Datenschutzprodukten, einschließlich DDoS-Schutz, Web Application Firewall und Bot-Management.
Verbindung von globaler und lokaler Traffic-Verwaltung: Alle Funktionen und die Benutzerfreundlichkeit der Lastverteilung von Cloudflare für das globale Traffic Management (GTM) sind auch für das lokale Traffic-Management (LTM) verfügbar. Sie können Ihre öffentlichen und privaten Ursprungsserver in einem einzigen Dashboard konfigurieren, anstatt sich mit mehreren Diensten und Anbietern auseinandersetzen zu müssen. Jetzt können alle Ihre privaten Ursprungsserver in den Genuss der Funktionen kommen, für die Cloudflare Load Balancing bekannt ist: sofortiges Failover, anpassbare Steuerung zwischen Rechenzentren, einfache Bedienung, benutzerdefinierte Regeln und Konfigurationsaktualisierungen in Sekundenschnelle. Sie werden auch von unseren neueren Funktionen profitieren, einschließlich „Least Connection Steering“, „Least Outstanding Request Steering“ und „Session Affinity by Header“. Dies ist nur ein kleiner Ausschnitt aus dem umfangreichen Funktionsumfang unseres Lastverteilungsdiensts. Weitere Funktionen und Details zu diesem Angebot finden Sie in unserer Entwicklerdokumentation.
Verstärkte Sicherheit: Dank der Unterstützung privater IP-Adressen in Kombination mit Cloudflare Tunnel können Unternehmen ihr Sicherheitsniveau erhöhen und sensible Daten schützen. Mit privaten IP-Adressen und verschlüsselten Verbindungen über Cloudflare Tunnel wird das Risiko eines unbefugten Zugriffs und potenzieller Angriffe erheblich gesenkt – der Datenverkehr verbleibt innerhalb vertrauenswürdiger Netzwerke. Außerdem kann Cloudflare Access so konfiguriert werden, dass Ihre Anwendung ein Single Sign-on unterstützt und auf eine Untergruppe von autorisierten Nutzern beschränkt wird. Darüber hinaus können Sie weiterhin Firewall- und Durchsatzbegrenzungsregeln, Bot-Management, DDoS-Schutz und alle andere derzeit verfügbaren Cloudflare-Produkte nutzen, die umfassende Sicherheitskonfigurationen ermöglichen.
Datenschutz ohne Kompromisse: Da Datenschutz immer mehr in den Mittelpunkt rückt, müssen Unternehmen sicherstellen, dass die Vertraulichkeit von Nutzerinformationen gewahrt bleibt. Die Unterstützung privater IP-Adressen in Verbindung mit Cloudflare Tunnel erlaubt es, Anwendungen abzutrennen und sensible Daten innerhalb ihrer privaten Netzwerkgrenzen zu halten. Mit benutzerdefinierten Regeln können Sie außerdem dafür sorgen, dass der Datenverkehr bestimmter Geräte an bestimmte Rechenzentren geleitet wird. Sie können beispielsweise benutzerdefinierte Regeln verwenden, um den Traffic aus Ost- und Westeuropa zu Ihren europäischen Rechenzentren zu leiten. So lässt sich problemlos dafür sorgen, dass die Daten dieser Nutzer Europa nicht verlassen. Auf diese Weise wird die Offenlegung von Daten gegenüber externen Stellen minimiert, die Privatsphäre der Nutzer bleibt gewahrt und die strengen Datenschutzvorschriften verschiedener Länder werden eingehalten.
Flexibilität und Ausfallsicherheit: Skalierbarkeit und Anpassungsfähigkeit zählen zu den Grundlagen für ein gut funktionierendes Unternehmen. Es reicht nicht aus, Lösungen zu implementieren, die den heutigen Anforderungen eines Unternehmens entsprechen. Kunden müssen Lösungen finden, die ihre Anforderungen mindestens für die nächsten drei Jahre erfüllen. Die Kombination von Lastverteilung und Cloudflare Tunnel in unserer Zero Trust-Lösung ist der Inbegriff von Flexibilität und Ausfallsicherheit. Änderungen an Load-Balancer-Konfigurationen verbreiten sich in Sekundenschnelle weltweit und machen Load Balancer zu einem effektiven Mittel, um auf Vorfälle zu reagieren. Ein sofortiges Failover, Zustandsüberwachung und Steuerungsrichtlinien tragen dazu bei, eine hohe Verfügbarkeit Ihrer Anwendungen zu gewährleisten. So können Sie die Ausfallsicherheit bieten, die Ihre Nutzer erwarten. Und das alles ist ein Zusatz zu den besten, tiefgreifend integrierten Zero Trust-Funktionen, etwa Secure Web Gateway (SWG), Remote Browser Isolation, Netzwerkprotokollierung und Schutz vor Datenverlust.
Optimierte Infrastruktur: Unternehmen können ihre Netzwerkarchitektur zusammenführen und sichere Verbindungen zwischen mehreren verteilten Umgebungen herstellen. Diese Vereinheitlichung reduziert die Komplexität, senkt die Betriebskosten und erleichtert eine effiziente Ressourcenzuweisung. Ganz gleich, ob Sie einen GTM einsetzen müssen, um den Datenverkehr zwischen Rechenzentren innerhalb Ihres privaten Netzwerks intelligent zu lenken, oder ob Sie den Traffic zwischen bestimmten Servern lenken müssen, nachdem die Auswahl des Rechenzentrums stattgefunden hat – es existiert jetzt eine klare, einheitliche Methode zur Verwaltung Ihres globalen und lokalen Datenverkehrs. Dabei ist gleichgültig, ob der Ursprung oder das Ziel öffentlich oder privat ist. Für die Schaffung und den Erhalt schneller und agiler Geschäftseinheiten kann Komplexität eine große Hürde darstellen. Die Zusammenführung aller Dienste bei einem einzigen Anbieter wie Cloudflare, der Sicherheit, Zuverlässigkeit und Beobachtbarkeit bietet, spart in erheblichem Umfang Kosten. Außerdem ermöglichen Sie es Ihren Mitarbeitenden damit, schneller zu handeln und sich auf das Wachstum ihres Unternehmens, die Verbesserung wichtiger Services und die Entwicklung unglaublicher Funktionen zu konzentrieren, anstatt eine wacklige Infrastruktur aus vielen Einzelteilen zusammenzufügen, die vielleicht schon in ein paar Jahren nicht mehr funktioniert. Überlassen Sie uns die schwere Arbeit. Wir ermöglichen es Ihnen und Ihrem Team, sich voll und ganz darauf zu konzentrieren, großartiger Anwendererlebnisse für Ihre Mitarbeitenden und Endnutzer zu schaffen.
Ein Mangel an Agilität, Flexibilität und betrieblicher Schlankheit von Hardware für das LTM ist keine Rechtfertigung für die Hunderttausende von Euro, die dafür ausgegeben werden. Von dem enormen Aufwand für die Verwaltung von CPU, Speicher, Strom, Kühlung usw. ganz zu schweigen. Wir wollen Unternehmen deshalb dabei helfen, diese Logik in die Cloud zu verlagern und sich von diesem unnötigen Mehraufwand zu befreien. Das verschafft Ihren Mitarbeitenden wieder mehr Zeit, sich auf das zu konzentrieren, was sie am besten können: begeisternde Anwendererlebnisse schaffen. Lassen Sie uns einfach das tun, worin wir am besten sind, nämlich schützen, beschleunigen und für höhere Zuverlässigkeit sorgen. Behalten Sie unseren Blog im Auge, um bald mehr über den LTM von Cloudflare zu erfahren. Wir werden erläutern, wie er die Komplexität von Architektur verringern kann, während er Ihren Teams mehr Einblick, Sicherheit und Kontrolle verschafft. In der Zwischenzeit empfehlen wir unser neues Whitepaper zur Lektüre.
Ein Blick in die Zukunft
Die wirkungsvolle Lösung von Cloudflare, die eine Unterstützung privater IP-Adressen bei der Lastverteilung mit Cloudflare Tunnel als Teil eines Zero Trust-Konzepts vorsieht, bekräftigt unser Engagement für die Bereitstellung modernster Tools, die Sicherheit, Datenschutz und Performance in den Vordergrund stellen. Durch die Verwendung privater IP-Adressen und sicherer Tunnel ermöglicht es Cloudflare Unternehmen, ihre Netzwerkinfrastruktur zu stärken und gleichzeitig die Einhaltung gesetzlicher Vorgaben zu gewährleisten. Mit verstärkter Sicherheit, Datenschutz ohne Kompromisse und optimierter Infrastruktur wird die Lastverteilung zu einem leistungsstarken Treiber für effiziente und sichere öffentliche oder private Dienste.
Ein wachsendes Unternehmen, das seine Systeme skaliert, benötigt genau die Funktionen, für die Cloudflare Load Balancing bekannt ist: Zustandsüberwachung, Steuerung und Failover. Wenn aufgrund steigender Anforderungen und Standards von Endnutzern der Verfügbarkeitsbedarf wächst, können Kunden Integritätsprüfungen hinzufügen. Diese ermöglichen ein automatisches Failover auf unbeeinträchtigte Server, wenn ein nicht intakter Server auszufallen beginnt. Fängt das Unternehmen an, mehr Datenverkehr aus der ganzen Welt zu empfangen, kann es neue Servergruppen für verschiedene Regionen schaffen und die dynamische Steuerung verwenden, um die Latenz zwischen Nutzer und Server zu reduzieren. Bei intensiven oder langwierigen Anfragen, z. B. komplexen Datenspeicherabfragen, können Kunden von der Steuerung zu Servern mit am wenigsten ausstehenden Anfragen profitieren. Damit lässt sich die Zahl der gleichzeitigen Anfragen pro Server verringern. Bisher war dies nur mit öffentlich adressierbaren IP-Adressen möglich, aber jetzt wird diese Lösung für Servergruppen mit öffentlichen IP-Adressen, private Server oder eine Kombination aus beidem angeboten. Die Lastverteilung mit Unterstützung privater IP-Adressen ist ab sofort zusammen mit LTM verfügbar und einsatzbereit. In unserer Entwicklerdokumentation finden Sie Anleitungen, wie Sie loslegen können.
Als Nächstes wollen wir die Unterstützung einer neuen Anbindung an unsere Lastverteilungslösung für Spectrum und WARP mit Cloudflare Tunnel und privaten IP-Adressen für Ihren Layer 4-Traffic einführen, sodass wir TCP- und UDP-Anwendungen in Ihren privaten Rechenzentren unterstützen können.