Du data center ou du Pop local : l'incidence de l'infrastructure sur les services cloud

Ces derniers temps, les fournisseurs de services cloud annoncent des points de présence locaux, et comptent sur une présence dans des zones de plus en plus spécifiques. Mais à quoi cela sert-il exactement ?

Lorsque les services cloud sont apparus, ils ont reçu leur nom parce qu'ils étaient représentés par une icône en forme de nuage au centre des diagrammes techniques.  Le nuage gris, avec des flèches représentant le flux de trafic, signifiait en fin de compte "quelqu'un d'autre est responsable de cela". 

La plupart des consommateurs restent perplexes quant au mystère du cloud, mais les professionnels comprennent que, dans la pratique, ce type de services est hébergé dans l'infrastructure du data center de "quelqu'un d'autre" et qu'un utilisateur y accède via Internet. La plupart des grands fournisseurs de services cloud étant originaires des États-Unis, la part du lion de l'infrastructure cloud initiale résidait aux États-Unis - cependant, ces dernières années, les principaux centres de données sont désormais situés dans tous les principaux centres régionaux pour des raisons de continuité des activités, de performance et de stockage des données.

Comme la dépendance au cloud s'est accrue, les entreprises l'utilisant pour des applications de plus en plus critiques, ce modèle s'est avéré inadéquat. En conséquence, les fournisseurs de services cloud annoncent maintenant des "points de présence" locaux, et comptent sur une "présence" dans des régions et des pays de plus en plus spécifiques.  Mais à quoi cela sert-il exactement ? On parle beaucoup des statistiques de latence, mais sont-elles toujours telles qu'elles apparaissent ?

La latence, qu'est-ce que cela signifie pour vous ?

Lorsque nous parlons de latence, chacun a une compréhension différente de ce qui est évalué.  La latence peut être mesurée comme le temps aller-retour (RTT), qui est le temps nécessaire à un paquet pour voyager entre le client et le serveur, ou le temps de premier octet (TTFB), qui est le temps nécessaire au serveur pour recevoir le premier octet.  Les ingénieurs réseau se concentrent souvent sur le RTT comme mesure, tandis que les gestionnaires d'applications s'attendent à ce que le TTFB soit inclus. Lorsqu'un fournisseur parle de ses statistiques de latence - qui seront au cœur de ses statistiques autour des data centers locaux - il est important de s'assurer que le résultat global et l'expérience utilisateur réelle de bout en bout sont clairs.

Acheminement du trafic

La principale cause des retards dans les temps de trajet est l'internet public, qui figure dans les diagrammes des services cloud plus que l'on ne pourrait le penser. Plus la durée du trajet est longue, plus un fournisseur de services cloud peut garantir que le trafic reste sur des connexions dédiées aux entreprises ou aux transporteurs. Ainsi, si les employés d'une entreprise se trouvent à Johannesburg, en Afrique du Sud, cette dernière souhaite que son service cloud soit acheminé par la meilleure connexion locale vers un centre de données de routage aussi proche que possible de ses employés.  Une fois sur place, l'entreprise souhaite également que le fournisseur de services cloud puisse fournir tous ses services sans avoir à transporter les données vers d'autres centres de données ailleurs dans le monde. 

Et c'est là qu'il est important d'inspecter soigneusement l'infrastructure de ces types de fournisseurs.  Où se trouve le centre de données le plus proche de ses employés ?  Et que peuvent-ils faire exactement dans ce centre de données ?  S'agit-il en fait d'un point de réacheminement privilégié vers un centre de données beaucoup plus éloigné ou d'un hub fonctionnant correctement à partir duquel ils peuvent fournir leurs services ?

Une solution idéale, concrètement ?

Dans le cadre de la crise mondiale actuelle, nous avons vu des organisations du monde entier se concentrer sur la possibilité pour leurs employés de travailler à distance. Les VPN traditionnels ont eu du mal à fournir une sécurité appropriée aux applications cloud et les solutions de contournement qui ont été utilisées jusqu'à présent pour un nombre limité d'employés sont à haut risque ou à forte latence lorsqu'elles sont déployées pour l'ensemble des employés.

L’une des clés du succès serait le développement d’une solution ZTNA (Zero Trust Network Access) basée sur le cloud qui connecte directement les travailleurs distants aux applications privées fonctionnant dans des environnements cloud publics ou des centres de données privés. Ce type de solution permettrait de connecter directement les travailleurs distants aux applications hébergées dans les clouds publics et les centres de données privés. Alors que cette solution pourrait éviter le backhauling (ou épinglage) des utilisateurs distants à travers les réseaux d'entreprise pour accéder aux applications dans les environnements publics de cloud, l’infrastructure dans sa globalité garantirait que les clients sont également redirigés localement, évitant ainsi la latence qui est commune aux services internationaux de cloud.

Qu'est-ce qu'un "point de présence" ?

De nombreux acteurs du secteur utilisent indifféremment les termes "point de présence" (POP) et "centre de données", mais il est utile de s'interroger sur la signification du terme "fournisseur de services cloud".  Par exemple, un fournisseur peut parler d'un POP local de Stockholm qui est en fait une adresse IP locale pointant vers un centre de données à Amsterdam (ce qui entraîne d'importants problèmes de localisation des données et de langue pour les services web et en ligne), ou d'un POP de Vienne qui est en fait situé à Francfort. 

Il arrive aussi souvent que tous les POP ne soient pas pleinement opérationnels pour prendre en charge tous les services en ligne proposés par un fournisseur de services cloud. Il est donc nécessaire de toujours vérifier si le trafic sera encore plus important pour accéder à l'offre de services complète, et vérifier la vitesse de ce trajet sur le réseau qu'ils utilisent (s'ils dépendent de l'internet public, le trajet de Vienne à Francfort peut prendre autant de temps que celui de New York à Sydney). Il est ainsi essentiel de se demander si nos liens les plus importants entre les data centers sont véritablement de type peer-to-peer ou s'ils passent par un réseau public.

Tout cela a-t-il réellement de l'importance ?

Lorsque l'on est assis en face d'un fournisseur et que l'on débat de la terminologie des accords de niveau de service (SLA) en matière de performances et d'expérience utilisateur (...voulez-vous des promesses de vitesses "moyennes" ou des garanties de limites ?), il peut être difficile de se rappeler pourquoi tout cela est important. 

Un retard de plus de 50 millisecondes est significatif et aura un impact sur l'expérience de l'utilisateur final.  Ce n'est pas parce qu'ils y sont habitués, ou que leurs attentes sont faibles, que cela signifie que tout va bien. Nous étions tous habitués à des connexions Internet par ligne téléphonique il n'y a pas si longtemps, et c'est notre travail, dans le domaine de la technologie, de continuer à susciter des attentes et à fournir le meilleur service possible pour l'ensemble des professionnels.

En fait, il n'y a pas de mal à interroger son fournisseur de services en ligne et à s'assurer que l'infrastructure qui se cache derrière l'icône du nuage est conforme à ce qu'elle devrait être.  Il est surprenant que deux diagrammes très similaires puissent représenter deux modèles d'infrastructure très différents qui peuvent avoir un impact sérieux sur notre force de travail.