C. EDGE COMPUTING ET INFORMATIQUE EN PÉRIPHÉRIE

Pendant deux décennies, l'évolution dominante du secteur informatique a été la centralisation : les applications, les données et les traitements ont migré vers des datacenters de plus en plus grands et de plus en plus éloignés des utilisateurs finaux, c'est le cloud computing. Cette centralisation présente des avantages considérables en termes d'économies d'échelle, de disponibilité et de facilité de gestion. Mais elle se heurte à une contrainte physique insurmontable : la vitesse de la lumière. La latence incompressible entre un terminal et un datacenter situé à plusieurs centaines de kilomètres, typiquement 20 à 100 ms aller-retour, est invisible pour une page web ou un email, mais rédhibitoire pour une application chirurgicale à distance, un véhicule autonome qui doit freiner en moins de 10 ms, ou une ligne de production robotisée nécessitant une synchronisation à la milliseconde.

L'edge computing (informatique en périphérie, ou informatique de bordure) apporte la réponse à cette contrainte en rapprochant le traitement des données de leur source. Plutôt que d'envoyer toutes les données vers le cloud central pour les traiter et renvoyer les résultats, on traite localement tout ce qui peut l'être, et on n'envoie vers le cloud que les données agrégées ou les informations réellement utiles à une analyse globale. Cette approche réduit la latence, consomme moins de bande passante réseau, préserve la confidentialité des données sensibles (qui ne quittent pas les locaux de l'entreprise) et permet un fonctionnement dégradé en cas de coupure de la connexion cloud.

1. Hiérarchie de l'edge computing

L'edge computing ne désigne pas un emplacement unique mais une hiérarchie de niveaux de traitement, chacun offrant un compromis différent entre la proximité à la source et la puissance de calcul disponible.

n  Le DEVICE EDGE représente le traitement directement sur l'objet source : un microcontrôleur embarqué dans un capteur industriel, un processeur dédié dans une caméra de surveillance intelligente, ou une puce de traitement du signal dans un équipement médical portable. Le domaine TinyML (machine learning embarqué) permet d'exécuter des modèles d'inférence IA directement sur ces microcontrôleurs à très faible consommation d'énergie, pour des applications comme la détection de mots-clés vocaux, la classification d'images ou la détection d'anomalies vibratoires sur des machines industrielles.

n  Le NEAR EDGE correspond aux passerelles IoT, serveurs de rack locaux et PC industriels situés dans l'usine, le bâtiment ou la station de base 5G. Ces équipements peuvent agréger et prétraiter les données de dizaines à milliers de capteurs, exécuter des algorithmes de contrôle en boucle fermée avec des latences de quelques millisecondes, et stocker localement les données d'une journée de production avant de les envoyer vers le cloud en dehors des heures de pointe.

n  Le FAR EDGE, ou REGIONAL EDGE, correspond à des points de présence (PoP) situés à proximité des utilisateurs : datacenters de périphérie de quelques dizaines de serveurs déployés par les opérateurs télécoms dans les villes moyennes, co-locations proches des zones industrielles, ou nœuds MEC (Multi-Access Edge Computing) intégrés aux stations de base 5G. Ces nœuds offrent des latences de 5 à 15 ms et peuvent héberger des applications exigeantes comme le rendu graphique 3D pour la réalité augmentée, l'analyse vidéo en temps réel ou le cache de contenu local.

Enfin, le cloud central, les hyperscalers AWS, Azure, Google Cloud, reste indispensable pour l'entraînement des modèles IA sur de grands volumes de données, les analyses globales agrégées, le stockage à long terme et les applications qui ne nécessitent pas de faible latence. Dans une architecture moderne, les quatre niveaux coexistent et travaillent de concert, chaque traitement étant exécuté au niveau le plus approprié.

2. MEC, Multi-Access Edge Computing

Le MEC (Multi-Access Edge Computing), standardisé par l'ETSI depuis 2014, est une architecture qui place des capacités de calcul et de stockage directement à la périphérie du réseau d'accès 5G, physiquement dans ou à proximité immédiate des stations de base (gNB). Cette proximité permet d'offrir des latences inférieures à 5 ms entre les applications et les équipements connectés, ce qui est impossible à atteindre en passant par le cœur du réseau et le cloud.

Les applications MEC les plus prometteuses se concentrent dans trois domaines.

n  Dans l'industrie 4.0, les caméras de vision artificielle positionnées sur les lignes de production envoient leurs flux vidéo au serveur MEC de l'usine, qui effectue en temps réel le contrôle qualité par réseau de neurones convolutifs, détecte les défauts à la milliseconde et déclenche l'éjection des pièces défectueuses. La latence vers le cloud serait trop élevée pour une ligne de production cadencée à plusieurs dizaines de pièces par seconde.

n  Dans le domaine des véhicules connectés, le standard V2X (Vehicle to Everything) permet aux véhicules de communiquer avec l'infrastructure routière, les feux de circulation et les autres véhicules. Le serveur MEC situé à proximité d'un carrefour peut agréger les informations de tous les véhicules approchants, calculer en moins de 10 ms les recommandations de vitesse ou de trajectoire pour éviter les collisions, et les retransmettre aux véhicules. Une latence de 50 ms via le cloud central ne permettrait pas cette réactivité vitale.

n  La réalité augmentée d'entreprise tire également profit du MEC : des lunettes AR légères (Microsoft HoloLens, RealWear) qui ne disposent pas de puissance de calcul suffisante pour le rendu 3D complexe délèguent ce traitement au serveur MEC, qui renvoie le flux vidéo enrichi en quelques millisecondes. Un technicien de maintenance peut ainsi voir en superposition les schémas de câblage d'une machine sans avoir à consulter une documentation papier.

3. CDN, Réseaux de distribution de contenu

Les CDN (Content Delivery Networks, réseaux de distribution de contenu) sont des réseaux mondiaux de serveurs distribués qui mettent en cache les contenus statiques et dynamiques au plus proche des utilisateurs finaux. Nés dans les années 1990 pour distribuer des pages web et des images, ils sont devenus en 2025 des infrastructures critiques qui transportent plus de 70 % du trafic Internet mondial, incluant le streaming vidéo, les APIs, les mises à jour logicielles et la protection contre les attaques DDoS.

Le principe fondamental d'un CDN est simple : plutôt que tous les utilisateurs du monde entier se connectent au serveur d'origine d'une application, ce qui créerait une latence élevée pour les utilisateurs distants et une surcharge massive du serveur, le CDN réplique le contenu sur des centaines ou milliers de points de présence (PoP) répartis géographiquement. Quand un utilisateur demande une ressource, il est redirigé vers le PoP le plus proche, qui lui répond en quelques millisecondes depuis son cache local.

Cloudflare illustre l'évolution vers des plateformes d'edge computing complètes.

Avec plus de 300 PoPs dans plus de 100 pays, Cloudflare combine la distribution de contenu avec

·    La protection DDoS (capable d'absorber des attaques dépassant 2 Tbps)

·    Le pare-feu applicatif (WAF), le Zero Trust Network Access (Cloudflare Access)

·     L'exécution de code au bord via Cloudflare Workers plus récemment. Cette dernière fonctionnalité permet aux développeurs d'exécuter du code JavaScript ou WebAssembly directement dans les PoPs Cloudflare, à moins de 50 ms de n'importe quel utilisateur dans le monde, sans serveur à gérer.

Akamai, pionnier fondé en 1998, exploite l'un des réseaux les plus étendus avec plus de 4 000 PoPs et 340 000 serveurs distribués. Sa position lui permet d'offrir des services de sécurité étendus au-delà du CDN, notamment suite à l'acquisition de Guardicore pour la microsegmentation réseau. AWS CloudFront, intégré à l'écosystème AWS, permet aux développeurs d'exécuter du code à la périphérie via Lambda@Edge et CloudFront Functions, avec une intégration native avec les autres services AWS. Fastly se distingue par sa capacité de purge de cache quasi-instantanée (moins de 150 ms pour propager une invalidation à l'ensemble du réseau), critique pour les éditeurs de presse qui publient du contenu en continu.

Modifié le: vendredi 20 mars 2026, 10:36