C. LES PROTOCOLES

Pour qu'une transmission de données se déroule convenablement entre deux équipements (qu'ils soient DTE — Data Terminal Equipment — ou DCE — Data Circuit-terminating Equipment), tous les maillons de la chaîne doivent suivre des procédures ou des conventions préalablement définies qui constitueront la grammaire du dialogue. On désigne ces conventions sous le nom de protocole.

Le protocole définit la synchronisation entre émetteur et récepteur, les règles de priorité, la façon dont seront détectées et corrigées les erreurs de transmission, les procédures à suivre en cas d'accident, ainsi que l'adaptation des flux de données au débit des canaux. Les protocoles peuvent être implantés dans n'importe quel type d'équipement, soit sous forme matérielle, soit sous forme logicielle.

1. Commutation par paquets X.25

La spécification X.25 a pour origine les opérateurs téléphoniques. Elle définit un protocole de niveau 3 destiné à gérer les circuits virtuels et basé sur les caractéristiques suivantes :

·    Gestion de l'adressage des utilisateurs, en permettant notamment le multiplexage des communications sur une seule liaison physique.

·    Établissement et libération des circuits virtuels (PVC et SVC).

·    Gestion des erreurs et des pannes à chaque nœud intermédiaire.

·    Contrôle de flux sur chaque circuit, fragmentation et réassemblage des paquets.

X.25 est de moins en moins utilisé car il n'est pas adapté aux hauts débits et à la fibre optique. La spécification X.25 définit une interaction point à point entre l'équipement terminal de traitement de données (ETTD) et l'équipement de terminaison de circuit de données (ETCD). Un ETTD est relié à un ETCD par une unité de traduction appelée assembleur/désassembleur de paquet (PAD : Packet Assembler/Disassembler).

La communication de bout en bout entre les ETTD s'effectue par l'intermédiaire d'un circuit virtuel. Les circuits virtuels permettent la communication entre des éléments de réseau distincts, par un nombre quelconque de nœuds intermédiaires, sans qu'il soit nécessaire de consacrer des portions fixes du réseau à la conversation. Les circuits virtuels conservent l'ordre des paquets, autorisent l'échange full duplex, utilisent le contrôle de flux et permettent le multiplexage.

On distingue deux types de circuits virtuels :

n  PVC (Permanent Virtual Circuit) : une voie logique permanente vers le réseau entre l'origine et sa destination. Une fois que la voie logique a été établie dans des conditions normales, tous les paquets la suivent. En cas de défaillance, une nouvelle voie est négociée. Les PVC sont en principe utilisés pour les transferts de données les plus fréquents.

n  SVC (Switched Virtual Circuit) : n'établit pas de voie logique permanente. Chaque paquet se fraie un chemin vers la destination en utilisant le meilleur trajet à ce moment donné. Avec cette méthode, les paquets suivent des routes différentes et peuvent donc parvenir à destination dans un ordre incorrect. X.25 doit tenir compte de cette situation pour assurer une transmission sans erreur. Les SVC sont utilisés pour les transferts de données sporadiques.

Les paquets étant fragmentés, il serait fastidieux de transporter l'adresse complète dans chacun des fragments. On a donc défini un numéro de voie logique lié au chemin virtuel. Chaque voie logique est caractérisée par un groupe de voie logique (codé sur 4 bits) et un numéro de voie logique (codé sur 8 bits).

Pendant le transfert des informations, X.25 utilise un protocole appelé LAPB pour s'assurer que les trames arrivent à destination dans le bon ordre et sans erreurs. De grandes mémoires tampons sont utilisées pour répondre à des pointes dans la demande et pour vérifier le bon état des données à chaque étape de leur voyage. Cette technique « stocker et retransmettre » (store and forward) et la vérification d'erreurs constante génèrent des délais importants.

Pourquoi X.25 limite le débit à 9 600 bps par circuit virtuel

Les taux d'erreurs élevés sur les liaisons cuivre de l'époque imposaient un protocole très vérificateur qui limitait énormément les débits. Sur de longues distances, un paquet n'avait presque aucune chance d'arriver intact à l'autre bout. Il fallait donc que les commutateurs discutent entre eux pour se renvoyer les trames (RR : Receive Ready, RNR : Receive Not Ready, REJ : Reject). Ce protocole de dialogue appliqué aux niveaux 2 et 3 consommait une bonne partie de la bande passante. De plus, X.25 segmente les paquets et les réassemble à l'arrivée. Toute cette gestion des fautes ralentit le débit, limité à 9 600 bps par circuit virtuel et 2 Mbps par ligne.

⚠ X.25 — totalement obsolète

X.25 est aujourd'hui totalement abandonné dans les réseaux de données. Les derniers réseaux X.25 publics en France (Transpac) ont été fermés entre 2012 et 2014. Il subsiste uniquement dans quelques systèmes patrimoniaux (legacy) industriels ou bancaires.

2. Frame Relay

Frame Relay (relais de trames) fait partie des protocoles qui opèrent dans la couche liaison (couche 2) du modèle à sept couches. Il présente un overhead très faible, aucune des corrections d'erreurs de X.25 et un très faible contrôle de débit. Frame Relay est plus simple et plus direct, ce qui permet plus de performances et d'efficacité.

Frame Relay permet de multiplexer statistiquement de nombreuses conversations de données logiques sur une seule liaison physique, d'où une utilisation plus rationnelle de la bande passante disponible. Ce protocole s'appuie beaucoup sur la fibre optique et la transmission numérique. Sur de telles liaisons, le protocole peut confier les tâches de vérification d'erreurs aux couches supérieures.

Frame Relay est basé, comme X.25, sur l'établissement d'un circuit virtuel. Les taux d'erreurs étant passés de 10⁻⁵ à 10⁻⁸ grâce à la fibre optique, le protocole a pu être allégé. Frame Relay n'effectue plus de segmentation ni de contrôle entre les commutateurs. Le seul contrôle qui reste est le CRC (contrôle de redondance cyclique) effectué au niveau matériel. En cas de CRC erroné, le commutateur rejette simplement la trame sans avertissement. La gestion des erreurs se fait directement au niveau des stations dans les couches supérieures.

Le principal avantage de Frame Relay est que, comme avec X.25, les clients paient pour le débit de données (CIR — Committed Information Rate), et non pas pour la vitesse de la liaison. Le coût global est proportionnel à la valeur du débit garanti.

⚠ Frame Relay — obsolète

Frame Relay a été largement déployé dans les années 1990-2000 pour les liaisons WAN d'entreprise, notamment pour l'interconnexion de sites. Il a été progressivement remplacé par MPLS puis par SD-WAN à partir des années 2010. Il est aujourd'hui obsolète.

3. TCP/IP (IPv4)

La défense américaine (DOD — Department of Defense), devant le foisonnement de machines utilisant des protocoles de communication différents et incompatibles, a décidé de définir sa propre architecture. Cette architecture est la source d'Internet. IPv4 est la version d'origine de TCP/IP, encore aujourd'hui la plus déployée bien qu'IPv6 soit en progression constante.

 

 

TCP/IP est souvent assimilée à une architecture complète. Au sens strict, c'est l'ensemble de deux protocoles :

n  IP (Internet Protocol) : un protocole de niveau réseau assurant un service sans connexion.

n  TCP (Transmission Control Protocol) : un protocole de niveau transport qui fournit un service fiable avec connexion.

Au sens large, la famille TCP/IP comprend aussi FTP (transfert de fichiers), SMTP (messagerie électronique), Telnet (émulation de terminal), HTTP/HTTPS (web), DNS, et de nombreux autres protocoles applicatifs.

Fig. 2 — Architecture TCP/IP en couches

Adressage IP sur les liaisons WAN

Sur les liaisons WAN, les adresses IPv4 sont généralement des adresses publiques ou des adresses privées utilisées à l’intérieur d’un réseau d’opérateur, avec souvent des mécanismes de translation d’adresses (NAT) en bordure d’Internet. En IPv6, les routes entre sites utilisent des préfixes globaux fournis par l’opérateur ou par l’entreprise ellemême, ce qui permet d’acheminer le trafic sans NAT. Le choix du plan d’adressage (IPv4 privé + NAT, double pile IPv4/IPv6, IPv6only avec mécanismes de transition) a un impact direct sur la simplicité du routage et la capacité à exposer des services vers l’extérieur

a) IP — Internet Protocol

Le Protocole Internet ou IP (Internet Protocol), qui correspond au niveau 3 de l'architecture de référence, est la partie la plus fondamentale d'Internet. Pour envoyer des données sur Internet, il faut les « emballer » dans des paquets IP, nommés datagrammes.

Le Protocole IP fonctionne en mode non connecté : l'émetteur envoie ses paquets sans tenir compte de l'état du récepteur, dès lors qu'il est présent. Il n'y a ni établissement ni fermeture de connexion, ni contrôle de flux. Les principales fonctions du protocole IP sont l'acheminement des datagrammes sans connexion, le routage des données, ainsi que la fragmentation et la reconstitution des données.

Les paquets IP, outre l'information, sont constitués d'un en-tête contenant l'adresse IP de l'expéditeur et celle du destinataire, ainsi qu'un nombre de contrôle déterminé par l'information emballée dans le paquet, qui permet au destinataire de savoir si le paquet a été corrompu pendant son transport.

Les paquets sont indépendants les uns des autres et sont routés individuellement dans le réseau par chaque commutateur (routeur). La sécurisation apportée par ce protocole est très faible — pas de détection de paquets perdus, pas de possibilités de reprise sur erreur. En fait, si IP ne vérifie pas la bonne réception des données, c'est parce que la couche supérieure (TCP) s'en charge, l'ensemble assurant une transmission fiable.
Une partie du protocole IP correspond au protocole ICMP (RFC 792).

Ce protocole de contrôle réalise les fonctions suivantes :

·    Contrôle de flux : lorsque les datagrammes arrivent trop rapidement, l'élément destination renvoie un message de congestion.

·    Détection de destination inaccessible : lorsqu'une destination s'avère inaccessible, le système envoie un message « destination inaccessible » à la source.

·    Redirection des voies : une passerelle envoie un message de redirection pour indiquer à une machine-hôte d'utiliser une autre passerelle.

·    Vérification des machines-hôtes à distance : une machine-hôte peut envoyer un message d'écho ICMP (ping) pour vérifier que le protocole Internet du système distant est opérationnel.

b) Adresses IPv4

L'un des points les plus intéressants du protocole TCP/IP est d'avoir attribué un numéro fixe à chaque ordinateur connecté sur Internet ; ce numéro est appelé l'adresse IP. C'est une adresse logique, à distinguer des adresses physiques des cartes réseau (adresses MAC). Dans la version IPv4, les adresses sont codées sur 32 bits. Ainsi, tout ordinateur sur Internet se voit attribuer une adresse de type a.b.c.d (où a, b, c, d sont des nombres compris entre 0 et 255), par exemple 192.168.1.1. Pour l'ordinateur, cette adresse IP est codée en binaire (4 x 8 bits = 32 bits). ex : L'adresse 192.168.1.1 correspond à 11000000.10101000.00000001.00000001 en binaire.

📄 Décodage d'une adresse IP

L'adresse 202.15.170.1 se décompose en quatre octets : 202 = 11001010, 15 = 00001111, 170 = 10101010, 1 = 00000001. Pour nous, il est plus facile de retenir 202.15.170.1 que 11001010000011111010101000000001. Les deux premiers octets identifient le réseau, les deux derniers identifient l'hôte sur ce réseau (pour une adresse de classe B).

c) Classes d'adresses IPv4

L'adressage est structuré logiquement dans une architecture de réseaux et de sous-réseaux. Les adresses IP sont régies par un organisme international (IANA, puis les RIRs régionaux), qui délivre les différentes classes de réseaux. Il y a 5 classes dont le rôle est essentiellement de diviser l'adresse en une partie réseau et une partie hôte.

Classe A (126 réseaux, jusqu'à 16 777 214 hôtes) : premier bit à 0, premier octet entre 1 et 126.

La classe A est caractérisée par une adresse réseau sur 8 bits dont le premier bit est à 0 (premier octet inférieur à 128). Les adresses A sont du type rrr.hhh.hhh.hhh avec 7 bits pour le numéro de réseau et 24 bits pour l'adressage local (plages 1.0.0.0 à 126.0.0.0). Il existe un petit nombre de réseaux de classe A mais chacun peut contenir jusqu'à 16 millions de machines.

Classe B (16 384 réseaux, jusqu'à 65 534 hôtes) : deux premiers bits à 10, premier octet entre 128 et 191.

La classe B est caractérisée par une adresse réseau sur 16 bits dont les deux premiers sont 10. Les adresses de classe B sont du type rrr.rrr.hhh.hhh avec 16 bits pour le réseau (128.1.0.0 à 191.255.0.0) et 16 bits pour les hôtes (soit 65 534 hôtes possibles). Il y a des milliers de réseaux de classe B.

 

Classe C (2 097 152 réseaux, jusqu'à 254 hôtes) : trois premiers bits à 110, premier octet entre 192 et 223.

La classe C est caractérisée par une adresse réseau sur 24 bits dont les trois premiers bits sont à 110. Les adresses de classe C sont du type rrr.rrr.rrr.hhh avec 24 bits pour le réseau (192.0.1.0 à 223.255.255.0) et 8 bits pour les hôtes (254 adresses locales possibles). On peut envisager des millions de réseaux de classe C ne comportant pas plus de 254 stations chacun.

 

Classe D (adresses multicast) : réseaux 224 à 239, ex. : 224.4.4.4. Transmissions point à multipoint (vidéoconférence, streaming multicast). Pas de structuration réseau/hôte.

Classe E (réservée à l'expérimentation) : réseaux 240 à 255. Non utilisée en production.

ℹ Adresses réservées

Pour chaque classe d'adresse, certaines adresses sont réservées. L'adresse 0 de la classe A définit l'acheminement par défaut et l'adresse 127 est associée à l'adresse de rebouclage (loopback : 127.0.0.1). Dans toutes les classes, les adresses 0 et 255 de machines sont réservées (adresse de réseau et broadcast). L'adresse 255.255.255.255 représente une adresse de diffusion générale (broadcast universel).

d) Masques de sous-réseaux et CIDR

Pour laisser un maximum de souplesse dans le mode de décomposition de l'adresse IP en sous-réseaux, la norme TCP/IP de sous-adressage permet de choisir l'interprétation des sous-réseaux indépendamment pour chaque réseau. Une fois qu'une décomposition en sous-réseaux a été choisie, toutes les machines du réseau doivent s'y conformer.

La création de sous-réseaux divise une adresse réseau en plusieurs adresses de sous-réseaux uniques, de sorte qu'une adresse spécifique puisse être attribuée à chaque réseau physique. Le masque de sous-réseau est un nombre de 32 bits où les bits à 1 désignent la partie réseau et les bits à 0 la partie hôte.

📄 Masque de sous-réseau

Pour un réseau 192.168.1.0 avec un masque /24 (255.255.255.0), on peut avoir 254 hôtes. Avec un masque /25 (255.255.255.128), on divise le réseau en deux sous-réseaux de 126 hôtes chacun : 192.168.1.0/25 et 192.168.1.128/25. La notation CIDR (Classless Inter-Domain Routing) comme /24 ou /25 indique le nombre de bits du masque réseau.

Adresses privées RFC 1918

Certaines plages d'adresses IPv4 sont réservées aux réseaux privés (non routées sur Internet) par la RFC 1918 : 10.0.0.0/8 (classe A privée), 172.16.0.0/12 (classes B privées, soit 172.16.x.x à 172.31.x.x) et 192.168.0.0/16 (classes C privées). Ces adresses sont utilisées dans les LANs d'entreprise et les réseaux domestiques. Le mécanisme NAT (Network Address Translation) permet aux machines disposant d'adresses privées d'accéder à Internet via une seule adresse publique.

e) TCP — Transmission Control Protocol

Le protocole TCP (Transmission Control Protocol) est sans doute considéré comme le plus important des protocoles au niveau transport, regroupant les fonctionnalités de niveau 4 du modèle de référence. TCP est en mode connecté, contrairement à UDP qui se positionne aussi au niveau transport mais dans un mode sans connexion et avec pratiquement aucune fonctionnalité de fiabilité. TCP a été développé pour assurer des communications fiables entre deux hôtes sur un même réseau physique ou sur des réseaux différents.

Caractéristiques de TCP :

·    Protocole de fait (de jure), avec tous les avantages que cela procure, notamment la disponibilité et l'indépendance du matériel ou du système d'exploitation.

·    Transparence au matériel utilisé, avec pour conséquence l'utilisation possible sur réseau Ethernet, Wi-Fi, liaison commutée ou liaison spécialisée.

·    Universalité de l'adressage, qui permet d'adresser aussi bien une station du même réseau local qu'une station reliée à Internet sur un autre continent.

TCP est chargé de couper le flux de données transmis par la couche supérieure en segments. Pour éviter la perte éventuelle d'information, TCP utilise un mécanisme d'acquittement positif avec retransmission. Ce mécanisme consiste, pour une station désireuse d'envoyer un paquet, à l'envoyer à intervalles réguliers jusqu'au moment où elle reçoit un acquittement positif. TCP utilise un numéro de séquence pour identifier chaque segment afin d'éviter les duplications. Le nombre maximal de segments qu'une station destinataire s'autorise à recevoir sans délivrer d'acquittement s'appelle une « fenêtre ».

Fig. 3 — Format d'un segment TCP

Signification des champs du segment TCP :

·    Numéro de port source et destination : entiers sur 16 bits qui identifient le point de communication (les ports inférieurs à 1 024 sont réservés aux services bien connus).

·    Numéro de séquence (32 bits) : permet de rétablir l'ordre des paquets reçus et d'écarter les paquets dupliqués. Ce numéro est incrémenté d'une unité chaque fois qu'un octet est envoyé.

·    Numéro d'acquittement (32 bits) : si le flag ACK est présent, ce champ désigne le prochain numéro de séquence attendu. Il constitue un acquittement de tous les segments dont le numéro de séquence est inférieur.

·    Offset données (4 bits) : indique le nombre de mots de 32 bits dans l'en-tête TCP (valeur minimale 5, maximale 15, soit de 20 à 60 octets d'en-tête).

·    Drapeaux (flags, 9 bits) : URG (urgent), ACK (acquittement), PSH (push immédiat), RST (reset de connexion), SYN (synchronisation lors de l'établissement), FIN (fin de connexion).

·    Fenêtre (16 bits) : nombre d'octets disponibles dans la fenêtre de réception, c'est-à-dire le nombre d'octets pouvant être reçus avant acquittement.

·    Somme de contrôle (16 bits) : contrôle d'intégrité de l'en-tête et des données.

·    Pointeur urgent (16 bits) : valide si le drapeau URG est positionné. Pointeur sur l'octet de donnée urgente.

·    Options et bourrage : champs facultatifs permettant d'aligner l'en-tête sur des mots de 32 bits.

Établissement et fermeture d'une connexion TCP

L'établissement d'une connexion TCP se fait par l'échange de trois messages (three-way handshake) : SYN (client→serveur), SYN-ACK (serveur→client), ACK (client→serveur). La fermeture utilise quatre messages (four-way close) : FIN (initiateur), ACK, FIN (répondeur), ACK. Ce mécanisme garantit que les deux extrémités sont d'accord pour ouvrir et fermer la connexion.

f) UDP — User Datagram Protocol

UDP (User Datagram Protocol) est un protocole du niveau de la couche transport, tout comme TCP. Contrairement à ce dernier, il est non fiable et travaille en mode non connecté. Il assure la détection d'erreur mais pas la reprise sur erreur. Il n'utilise pas les accusés de réception pour garantir que les données ont été correctement réceptionnées, ne reséquence pas les messages reçus, et n'assure pas de mécanisme de contrôle de flux. Les datagrammes UDP peuvent donc être perdus, dupliqués ou déséquencés.

Néanmoins, la grande qualité d'UDP est sa simplicité. L'absence de mécanisme de connexion accélère considérablement l'échange des données. UDP fonctionne de manière très satisfaisante et performante en réseau local, ces derniers étant très fiables et minimisant les risques d'erreurs. UDP est particulièrement adapté aux applications temps réel (voix sur IP, vidéoconférence, streaming, DNS) où la latence prime sur la fiabilité.

Fig. 4 — Format d'un datagramme UDP (4 champs : port source, port dest., longueur, checksum)

g) Protocoles ARP et RARP

Les adresses physiques (MAC) des hôtes sont stockées en PROM sur les cartes d'interface avec le réseau, tandis que les adresses logiques (IP) sont stockées dans des fichiers sur disques. À l'intérieur d'un même réseau physique (ou sous-réseau), deux machines ne peuvent communiquer que si elles connaissent leurs adresses physiques respectives. Il est donc nécessaire d'établir un mécanisme de mise en correspondance de ces adresses physiques (MAC) et logiques (IP).

ℹ ARP en réseau Ethernet

Dans le cas d'un réseau Ethernet, l'adresse Ethernet d'un hôte est stockée sur 6 octets (48 bits), alors que son adresse Internet est stockée sur 4 octets (32 bits). Le protocole ARP (Address Resolution Protocol) convertit l'adresse logique sur 32 bits en adresse physique sur 48 bits.

n  Principe du protocole ARP : un hôte A veut émettre un message à l'attention d'un hôte B dont il ne connaît que l'adresse IP. A émet un message broadcast sur le réseau contenant sa propre adresse IP et MAC, et l'adresse IP de B. Seul l'hôte B reconnaît son adresse IP et répond en envoyant son adresse MAC à A. La diffusion broadcast étant coûteuse, chaque hôte gère un cache ARP contenant une table de mise en correspondance des adresses récemment acquises.

n  Principe du protocole RARP : l'hôte du réseau qui veut faire l'acquisition de son adresse logique émet un message RARP contenant son adresse physique en broadcast. Un serveur d'adresses configuré à cet effet retourne à la station l'adresse logique correspondante. Ce protocole n'est utilisé que par les hôtes qui n'ont pas d'informations sur leur adresse logique (par exemple des stations sans disques). RARP est aujourd'hui remplacé par DHCP.

Modifié le: vendredi 20 mars 2026, 09:59