Abonnez-vous pour recevoir des notifications sur les nouveaux articles :

Le réseau d'infrastructure sur lequel repose le cloud de connectivité de Cloudflare

2024-08-06

Lecture: 10 min.
Cet article est également disponible en English, en 繁體中文, en Deutsch, en 日本語, en 한국어, en Português, en Español et en 简体中文.

L'origine de l'usage moderne du terme « cloud » trouve probablement ses origines dans l'icône représentant un nuage, omniprésente dans les diagrammes de réseaux depuis des décennies. Le nuage était utilisé pour représenter les infrastructures vastes et complexes indispensables à la fourniture de services réseau ou Internet, sans toutefois entrer dans les complexités techniques sous-jacentes. Chez Cloudflare, nous incarnons ce principe en proposant des solutions d'infrastructure essentielles avec une approche intuitive et simple d'utilisation. Notre logo, arborant le symbole du nuage, illustre notre engagement de simplifier les complexités de l'infrastructure Internet pour l'ensemble de nos utilisateurs.

Cet article de blog présente les dernières actualités concernant notre infrastructure, en se concentrant sur notre réseau d'infrastructure mondial en 2024. Il met en lumière ses avantages pour nos clients et pour notre avantage concurrentiel sur le marché, ainsi que son impact sur notre mission de contribuer à bâtir un Internet meilleur. Depuis notre dernier article de blog consacré à notre réseau d'infrastructure, en 2021, nous avons augmenté de plus de 500 % la capacité (en Tb/s) de ce dernier, permettant de nouveaux scénarios d'utilisation et améliorant la fiabilité et les performances pour tous nos clients.

Aperçu de l'infrastructure de Cloudflare

À la date de juillet 2024, Cloudflare dispose de datacenters présents dans 330 villes dans plus de 120 pays, chacun hébergeant les équipements et services de l'entreprise. Notre objectif de proposer les produits et services de Cloudflare aux utilisateurs du monde entier reste inchangé, bien que les datacenters diffèrent les uns des autres au regard du nombre de serveurs et de la puissance de calcul.

BLOG-2432-2

Ces datacenters sont stratégiquement implantés dans le monde entier afin de garantir notre présence dans toutes les grandes régions et d'aider nos clients à se conformer aux réglementations locales. Cloudflare est un réseau intelligent et programmable, sur lequel le trafic est acheminé vers le datacenter le plus optimal aux fins du traitement. Cette programmabilité nous permet de préserver la régionalité des données sensibles, grâce à nos solutions Data Localization Suite, et de respecter les contraintes imposées par nos clients. Le rôle de notre réseau, dont la gestion est assurée par nos équipes d'ingénierie et de stratégie réseau, est de permettre la connexion de ces sites et l'échange de données avec les clients, les clouds publics, les partenaires et l'ensemble de l'Internet. Ce réseau constitue la fondation qui assure à nos produits leur rapidité fulgurante, garantissant notre fiabilité dans le monde entier et la sécurité de chaque requête, et aidant nos clients à se conformer aux exigences en matière de souveraineté des données.

Modes d'échange de données

Internet repose sur l'interconnexion de différents réseaux et systèmes autonomes qui communiquent en échangeant des données. Parmi les nombreuses façons d'échanger des données, à des fins de simplicité, nous nous concentrerons ici sur deux méthodes essentielles : le peering et le transit IP. Afin de mieux comprendre les avantages qu'offre notre réseau d'infrastructure mondial, il est important de connaître les solutions de connectivité fondamentales sur lesquelles repose notre réseau.

  1. Peering : le terme « peering » désigne l'interconnexion volontaire de réseaux Internet administrativement séparés, facilitant l'échange de trafic entre les utilisateurs de chaque réseau. Cloudflare est l'un des réseaux les plus interconnectés à l'échelle mondiale. Nous avons conclu des accords de peering avec des fournisseurs d'accès Internet et d'autres réseaux dans 330 villes et sur l'ensemble des principaux points d'interconnexion Internet (IX, Internet Exchange). Les parties intéressées peuvent s'inscrire pour s'interconnecter avec notre réseau à tout moment ou se connecter directement à celui-ci par l'intermédiaire d'une interconnexion de réseau privé (PNI).

  2. Transit IP : ce terme désigne un service payant qui permet au trafic d'emprunter (ou de transiter sur) le réseau d'une autre entité, généralement pour connecter un fournisseur d'accès Internet (FAI) de moindre ampleur à l'ensemble de l'Internet. Cela équivaut en quelque sorte à vous acquitter d'un droit de péage pour emprunter une autoroute privée avec votre voiture.

Notre réseau d'infrastructure est un réseau dédié à fibre optique, à haute capacité, qui achemine le trafic entre les datacenters mondiaux de Cloudflare, dans lesquels notre réseau est interconnecté avec d'autres réseaux en utilisant les méthodes d'échange de trafic décrites précédemment. Il permet des transferts de données plus fiables que ceux qui se déroulent sur l'Internet public. Pour la connectivité intra-urbaine et les connexions longue distance, nous exploitons notre propre fibre noire ou louons des longueurs d'onde grâce à la technique de multiplexage dense en longueur d'onde (DWDM, Dense Wavelength Division Multiplexing). DWDM est une technologie de fibre optique qui permet d'accroître la capacité du réseau en transmettant simultanément plusieurs flux de données sur différentes longueurs d'onde lumineuses au sein d'une même fibre. Vous pourriez comparer cela à une autoroute à plusieurs voies, permettant à un plus grand nombre de véhicules de circuler en même temps. Nous achetons et louons ces services auprès de nos partenaires opérateurs dans le monde entier.

BLOG-2432-3

Fonctionnement et avantages de notre réseau d'infrastructure

L'exploitation d'un réseau d'infrastructure mondial est un défi complexe que beaucoup de nos concurrents évitent. Nous relevons ce défi pour deux raisons essentielles : le contrôle du routage du trafic et la rentabilité.

Le transit IP nous contraint à dépendre de partenaires de transit pour acheminer le trafic depuis Cloudflare vers le réseau de destination final, ce qui entraîne une dépendance indésirable vis-à-vis d'un tiers. À l'inverse, disposer de notre propre réseau d'infrastructure nous offre un contrôle total sur le routage du trafic, tant interne qu'externe, permettant une gestion plus efficace. Ce contrôle est crucial, car il nous permet d'optimiser les itinéraires du trafic, ce qui se traduit généralement par des chemins présentant la plus faible latence, comme nous l'avons mentionné précédemment. En outre, l'acheminement d'importants volumes de trafic sur notre réseau d'infrastructure s'avère, en moyenne, plus économique que le transit IP. C'est pourquoi nous doublons la capacité de notre réseau d'infrastructure dans des villes telles que Francfort, Londres, Amsterdam, Paris et Marseille, où nous observons une croissance continue du trafic et où des solutions de connectivité sont largement disponibles à des tarifs compétitifs.

Notre réseau d'infrastructure prend en charge le trafic interne aussi bien qu'externe. Le trafic interne comprend celui des clients utilisant nos solutions d'amélioration de la sécurité ou des performances, ainsi que le trafic provenant des systèmes internes de Cloudflare, qui assurent l'acheminement des données entre nos datacenters. La mise en cache par niveau, par exemple, optimise le processus de mise en cache en répartissant nos datacenters suivant une hiérarchie de niveaux inférieurs et supérieurs. Si les datacenters de niveau inférieur ne disposent pas du contenu demandé, ils le demandent aux datacenters de niveau supérieur. Si les datacenters de niveau supérieur n'en disposent pas non plus, ils le demandent alors au serveur d'origine. Ce processus permet de réduire le nombre de requêtes transmises au serveur d'origine et améliore l'efficacité du cache. L'utilisation de notre réseau d'infrastructure pour transporter les contenus mis en cache entre les datacenters de niveau inférieur et supérieur et le serveur d'origine est souvent la méthode la plus rentable, compte tenu de l'étendue de notre réseau. Magic Transit en est un autre exemple : nous attirons le trafic vers le datacenter Cloudflare le plus proche de l'utilisateur final grâce à Anycast BGP, puis nous appliquons notre solution de protection contre les attaques DDoS. Notre réseau d'infrastructure transporte le trafic légitime jusqu'au datacenter de notre client, lequel est connecté via une connexion Cloudflare Network Interconnect (CNI).

Le trafic externe que nous acheminons sur notre réseau d'infrastructure peut provenir de fournisseurs de serveurs d'origine tels qu'AWS, Oracle, Alibaba, Google Cloud Platform ou Azure, pour n'en citer que quelques-uns. Les réponses des serveurs d'origine de ces fournisseurs de cloud sont acheminées via des points de peering et notre réseau d'infrastructure jusqu'au datacenter Cloudflare le plus proche de notre client. En tirant parti de notre réseau d'infrastructure, nous bénéficions d'un meilleur contrôle sur la redirection de ce trafic sur l'ensemble de notre réseau, ce qui nous permet d'améliorer la fiabilité et les performances, tout en réduisant notre dépendance vis-à-vis de l'Internet public.

Cette interconnexion entre les clouds publics, les agences et l'Internet avec une couche contrôlée d'amélioration des performances et de la sécurité, de programmabilité et de visibilité exécutée sur notre réseau d'infrastructure mondial forme notre cloud de connectivité.

This map is a simplification of our current backbone network and does not show all paths

Cette carte offre une représentation simplifiée de notre réseau d'infrastructure actuel et ne détaille pas tous les chemins

Développer notre réseau

Comme nous l'avons mentionné dans l'introduction, nous avons augmenté de plus de 500 % la capacité (en Tb/s) de notre réseau d'infrastructure depuis 2021. Avec l'ajout de la capacité des câbles sous-marins vers l'Afrique, nous avons franchi une étape importante en 2023, en parachevant notre réseau d'infrastructure mondial. Aujourd'hui, nous sommes présents sur six continents, grâce à des liaisons terrestres par fibre optique et des câbles sous-marins.

L'expansion de notre réseau d'infrastructure dans des régions où l'infrastructure Internet est moins développée que sur des marchés comme l'Europe centrale ou les États-Unis a été une stratégie essentielle pour les récentes expansions de notre réseau. Nous partageons, avec nos partenaires fournisseurs d'accès Internet régionaux, l'objectif de préserver la localisation de notre flux de données et de le rapprocher autant que possible de l'utilisateur final. Le trafic emprunte souvent des itinéraires inefficaces hors de la région, en raison de l'absence de peering local et d'une infrastructure régionale insuffisante. Ce phénomène, connu sous le nom de « hairpinning » (ou effet trombone), se produit lorsque les données sont acheminées via des itinéraires internationaux plus économiques et des accords de peering existants.

Nos investissements dans des réseaux d'infrastructure régionaux dans des pays tels que l'Inde ou la Turquie visent à réduire la nécessité de recourir à ces routages inefficaces. Grâce à notre propre réseau d'infrastructure régional, le trafic peut être acheminé directement entre les datacenters Cloudflare d'un pays (par exemple, entre Mumbai, New Delhi et Chennai), permettant ainsi de réduire la latence, d'améliorer la fiabilité et de faciliter, pour nous, l'assurance d'une qualité de service identique à celle de marchés plus développés. Nous pouvons veiller à ce que les données restent locales, grâce à notre solution Data Localization Suite (DLS), et ainsi, aider les entreprises à se conformer aux législations régionales en matière de confidentialité des données en contrôlant l'endroit où sont stockées et traitées leurs données.

BLOG-2432-5

Latence et performances améliorées

Cette expansion stratégique a permis non seulement d'étendre notre portée mondiale, mais également d'améliorer considérablement notre latence globale. À titre d'exemple, depuis le déploiement de notre réseau d'infrastructure entre Lisbonne et Johannesburg, nous avons constaté une amélioration considérable des performances pour les utilisateurs situés à Johannesburg. Parmi les clients bénéficiant de cette réduction de la latence figure notamment une institution financière qui exécute ses API par l'intermédiaire de Cloudflare dans le cadre d'opérations de trading en temps réel, où chaque milliseconde compte, ou les utilisateurs de notre solution Magic WAN, pour lesquels nous facilitons la connectivité inter-sites entre leurs succursales.

BLOG-2432-6

Le tableau ci-dessus présente un exemple dans lequel nous avons mesuré le temps d'aller-retour (Round-Trip Time, RTT) pour une requête fetch sur le serveur d'origine, sans mise en cache, depuis un utilisateur final situé à Johannesburg vers différents sites d'origine, en comparant notre réseau d'infrastructure et l'Internet public. L'acheminement de la requête adressée au serveur d'origine sur notre réseau d'infrastructure, par opposition au transit IP ou au peering, permet aux utilisateurs locaux situés à Johannesburg d'obtenir leur contenu jusqu'à 22 % plus rapidement. Par ailleurs, l'utilisation de notre réseau d'infrastructure pour acheminer le trafic jusqu'à sa destination finale nous assure de contrôler entièrement le chemin et les performances. Cette amélioration de la latence varie selon les emplacements, mais elle démontre de manière constante la supériorité de notre réseau d'infrastructure lors du déploiement d'une connectivité performante.

BLOG-2432-7

Contrôle du trafic

Imaginez un système de navigation utilisant 1) le système GPS pour identifier l'itinéraire et 2) un badge de télépéage autoroutier valable jusqu'à votre destination finale, qui vous permet de traverser les péages sans vous arrêter. Notre réseau d'infrastructure mondiale fonctionne d'une manière assez semblable.

Il repose sur deux composants fondamentaux : le premier est le protocole BGP (Border Gateway Protocol), le protocole de routage pour Internet, et le second est la technologie Segment Routing MPLS (Multiprotocol Label Switching), une technique permettant de rediriger le trafic sur des chemins d'acheminement prédéfinis sur un réseau IP. Par défaut, la technologie Segment Routing assure l'encapsulation de bout en bout entre les routeurs d'entrée et de sortie, sans que les nœuds intermédiaires n'effectuent de recherche d'itinéraire. Au lieu de cela, ils redirigent le trafic via un circuit virtuel de bout en bout, ou tunnel, appelé chemin à commutation par étiquettes. Lorsque le trafic est dirigé vers un chemin à commutation par étiquettes, il ne peut pas effectuer de détour sur l'Internet public et doit suivre l'itinéraire prédéterminé sur le réseau d'infrastructure de Cloudflare. Ce n'est pas une nouveauté, et de nombreux réseaux utilisent même le mécanisme « BGP Free Core » où toutes les informations concernant l'itinéraire sont gérées à la périphérie du réseau et les nœuds intermédiaires participent uniquement à la transmission de données entre les routeurs d'entrée et de sortie.

En tirant parti de la technologie Segment Routing Traffic Engineering (SR-TE) sur notre réseau d'infrastructure, nous pouvons sélectionner automatiquement des chemins entre nos datacenters optimisés pour la latence et les performances. Parfois, le « chemin le plus court » en termes de coût du protocole de routage n'est pas le chemin offrant la latence la plus faible ou les performances les plus élevées.

BLOG-2432-8

Accélérer le trafic : Argo et le réseau d'infrastructure mondial

Argo Smart Routing est un service qui utilise le portefeuille de solutions de connectivité (réseau d'infrastructure, transit et peering) de Cloudflare pour identifier le chemin le plus efficace entre le datacenter auquel parvient la requête d'un utilisateur et le serveur d'origine de votre infrastructure back-end. Argo peut transférer une requête d'un datacenter de Cloudflare à un autre pour atteindre un serveur d'origine si cela permet d'améliorer les performances. Orpheus, le complément d'Argo, contourne gratuitement les chemins dégradés pour toutes les requêtes de clients adressées à un serveur d'origine. Orpheus analyse les conditions du réseau en temps réel et évite activement les échecs d'accessibilité. Les clients ayant activé Argo bénéficient de performances optimales pour les requêtes acheminées entre les datacenters de Cloudflare et leurs serveurs d'origine, tandis qu'Orpheus assure la résolution automatique des erreurs pour tous les clients, de manière universelle. En réunissant notre réseau d'infrastructure mondiale, en utilisant Segment Routing en tant que couche sous-jacente avec Argo Smart Routing et Orpheus en tant que couche supérieure de connectivité, nous sommes en mesure de transporter le trafic critique des clients en empruntant les chemins les plus performants disponibles.

Alors, comment notre réseau d'infrastructure mondial fonctionne-t-il avec Argo Smart Routing ? Argo Transit Selection est une extension d'Argo Smart Routing, qui choisit explicitement le chemin présentant la plus faible latence entre sauts entre les datacenters de Cloudflare pour l'acheminement des requêtes de clients adressées à un serveur d'origine. Le chemin présentant la plus faible latence est souvent notre réseau d'infrastructure mondiale, car il s'agit d'un support de connectivité plus dédié et privé, par opposition aux réseaux de transit tiers.

Prenons l'exemple d'une multinationale pharmaceutique néerlandaise qui se fie au réseau et aux services de Cloudflare avec notre solution SASE pour connecter ses bureaux mondiaux, ses centres de recherche et son personnel distant. Ses succursales asiatiques dépendent des solutions de sécurité et du réseau de Cloudflare pour fournir un accès sécurisé aux données importantes depuis leurs datacenters centraux jusqu'à leurs bureaux situés en Asie. En cas de coupure de câble entre les régions, notre réseau recherche automatiquement le meilleur itinéraire alternatif, afin de limiter l'impact sur l'activité de l'entreprise.

Argo évalue le potentiel de toutes les combinaisons possibles des différents chemins proposés par le fournisseur, notamment le réseau d'infrastructure de Cloudflare, pour atteindre les serveurs d'origine à l'aide du routage intelligent. Grâce à notre vaste interconnexion avec de nombreux réseaux et à notre réseau d'infrastructure mondial privé, Argo est en mesure d'identifier le chemin réseau le plus performant pour les requêtes. Notre réseau d'infrastructure reste constamment l'un des chemins offrant la plus faible latence qu'Argo puisse sélectionner.

Outre les performances élevées de notre réseau, sa fiabilité pour nos clients est à nos yeux une priorité absolue. Cela signifie que nous devons offrir la meilleure résilience possible face aux coupures de fibre et aux incidents affectant les fournisseurs de transit tiers. Lors d'une perturbation affectant le câble sous-marin AAE-1 (Asia Africa Europe-1), voici ce qu'Argo a observé entre Singapour et Amsterdam sur certains des chemins de nos fournisseurs de transit par rapport au réseau d'infrastructure de Cloudflare.

BLOG-2432-9

Le grand pic (ligne violette) indique une augmentation de la latence sur l'un des chemins de notre fournisseur de transit IP tiers. Ce pic était lié à l'encombrement, qui a finalement été résolu, probablement grâce à des opérations d'ingénierie du trafic réalisées sur le réseau du fournisseur. Nous avons observé une augmentation moins prononcée, mais néanmoins perceptible, de la latence (ligne jaune) sur d'autres réseaux de transit. La ligne inférieure (verte) du graphique correspond à notre réseau d'infrastructure, sur lequel le temps d'aller-retour reste relativement stable tout au long de l'événement, grâce à la connectivité diversifiée de notre réseau d'infrastructure entre l'Asie et l'Europe. Pendant toute la durée de la coupure de la fibre, la latence du réseau de Cloudflare est restée stable, à environ 200 ms, entre Amsterdam et Singapour. Aucun incident notable n'a été observé sur le réseau, contrairement aux chemins des fournisseurs de transit ; Argo a ainsi exploité activement notre réseau d'infrastructure afin d'offrir des performances optimales.

BLOG-2432-10

Appel à l'action

À mesure qu'Argo améliore les performances sur notre réseau, les connexions (Cloudflare Network Interconnect, CNI) optimisent l'accès à celui-ci. Nous encourageons nos clients Enterprise à utiliser nos CNI gratuits en tant qu'accès directs (on-ramp) à notre réseau chaque fois que cela s'avère possible. Vous pourrez ainsi pleinement tirer parti de notre réseau, notamment de notre robuste réseau d'infrastructure, et améliorer les performances globales de tous les produits au sein de votre cloud de connectivité Cloudflare. En fin de compte, notre réseau mondial est notre principal produit et notre réseau d'infrastructure joue un rôle central au sein de celui-ci. Nous continuons donc à contribuer à bâtir un Internet meilleur en améliorant nos services pour tous nos utilisateurs, partout dans le monde.

Si vous souhaitez rejoindre notre mission, devenez partenaire d'accès direct (on-ramp) du réseau de Cloudflare pour offrir à vos clients une connectivité sécurisée et fiable en intégrant directement votre réseau avec le nôtre. Vous pouvez en apprendre davantage sur nos partenariats d'accès direct et sur les avantages qu'ils peuvent offrir à votre entreprise ici.

Nous protégeons des réseaux d'entreprise entiers, aidons nos clients à développer efficacement des applications à l'échelle d'Internet, accélérons tous les sites web ou applications Internet, repoussons les attaques DDoS, tenons les pirates informatiques à distance et pouvons vous accompagner dans votre parcours d'adoption de l'architecture Zero Trust.

Accédez à 1.1.1.1 depuis n'importe quel appareil pour commencer à utiliser notre application gratuite, qui rend votre navigation Internet plus rapide et plus sûre.

Pour en apprendre davantage sur notre mission, à savoir contribuer à bâtir un Internet meilleur, cliquez ici. Si vous cherchez de nouvelles perspectives professionnelles, consultez nos postes vacants.
Connectivity CloudAnycast (FR)Argo Smart RoutingAthenian Project (FR)BGPBetter InternetCloudflare NetworkMagic TransitNouveautés produits

Suivre sur X

Bryton Herdes|@next_hopself
Cloudflare|@cloudflare

Publications associées

07 octobre 2024 à 13:00

Thermal design supporting Gen 12 hardware: cool, efficient and reliable

Great thermal solutions play a crucial role in hardware reliability and performance. Gen 12 servers have implemented an exhaustive thermal analysis to ensure optimal operations within a wide variety of temperature conditions and use cases. By implementing new design and control features for improved power efficiency on the compute nodes we also enabled the support of powerful accelerators to serve our customers....

06 octobre 2024 à 23:00

Enhance your website's security with Cloudflare’s free security.txt generator

Introducing Cloudflare’s free security.txt generator, empowering all users to easily create and manage their security.txt files. This feature enhances vulnerability disclosure processes, aligns with industry standards, and is integrated into the dashboard for seamless access. Strengthen your website's security today!...

27 septembre 2024 à 13:00

AI Everywhere with the WAF Rule Builder Assistant, Cloudflare Radar AI Insights, and updated AI bot protection

This year for Cloudflare’s birthday, we’ve extended our AI Assistant capabilities to help you build new WAF rules, added new AI bot & crawler traffic insights to Radar, and given customers new AI bot blocking capabilities...