1. Téléchargement

Image non disponible Télécharger le document :
Systèmes multimédias répartis et qualité de service
Tous droits réservés.
4.45 Mo 18/08/2004 58 pages

2. Résumé

L'engouement général suscité par l'Internet, l'explosion du trafic et la profusion des nouveaux services implique une amélioration constante des infrastructures et des protocoles. En découle une révolution technique : la possibilité de contrôler et d'assurer la qualité des services fournis : la QoS. Cela a été possible grâce à des améliorations dans tous les domaines, notamment un transport plus rapide et plus sûr des données et des routeurs plus efficaces. Néanmoins, toutes les possibilités de cette QoS ne sont pas encore exploitées : le HTML ne permet pas aux webmasters d'offrir de meilleurs services aux internautes. C'est pourquoi le langage SMIL a été créé : il offre la possibilité de créer des documents multimédias fortement synchronisés et adaptatifs aux performances du réseau. Ces premières applications sont l'enseignement en ligne et la télévision interactive.

3. Mots clés

QoS, qualité de service, Internet, web, multimédia, réseau, systèmes répartis, systèmes distribués, haut débit, contrôle de congestion, gigue, ordonnancement, régulation de trafic, routage, routeur hautes performances, isolation de flux, classe de trafic, cache, proxy, HTTP1.1, IPv6, IntServ, DiffServ, SMIL, interactivité, synchronisation, FIFO, Drop-tail, Round Robin, Weighted Round Robin, Generalized Processor Sharing, Fair Queuing, Weighted Fair Queuing, Random Early Detection, Token Bucket, Best Effort, Integrated Services, Differentiated Services.

4. Synthèse

La démocratisation du web suit une progression exponentielle puisque le nombre d'internautes est passé de quelques centaines de milliers en 1990 à près de 160 millions en 2003. Le nombre d'internautes croissant rapidement, le nombre de sites web et de services a suivi la demande, provoquant une augmentation très importante du trafic global, impliquant la nécessité d'améliorer les infrastructures du réseau pour faire face aux besoins. Internet est devenu un secteur économique très concurrentiel à lui tout seul : la vente de matériels, applications, connexions et de contenus représentent de forts enjeux financiers. Les pays en voie de développement s'équipent également, cet outil leur permet de communiquer à moindres frais puisque la voix autant que les données peuvent transiter sur Internet. Mais les inégalités nord-sud restent très présentes puisque la bande passante agrégée entre l'Europe et l'Afrique est plus de 360 fois inférieur à qu'avec l'Amérique du Nord. L'usage de l'Internet reste réservé aux pays développés à population très éduquée et à fort pouvoir d'achat.

La première fonction d'Internet est de véhiculer les pages web des serveurs jusqu'aux internautes. La structure d'une page web est éminemment distribuée : une page est un agrégat de nombreuses entités de types très variés, typiquement un fichier HTML, des images, des animations, de la musique et autres... Ces différentes ressources sont réparties sur des serveurs de performance différente et desservis par des médias de qualité différente. Elles transitent chacune par des liens de natures différentes (cuivre, fibre optique, hertzien) dont les caractéristiques de transfert sont très différentes (taux d'erreur, bande passante) et par des éléments actifs tels les routeurs qui - eux aussi - se comportent différemment les uns des autres (certains assurent une gigue contrôlée, un délai garanti, la priorité des flux ; mais d'autres pas). Ainsi, ces éléments ne parviennent pas au même moment ni avec la même qualité à l'internaute. Le webmaster n'a donc aucun contrôle sur la qualité ni sur la synchronisation globale des éléments les uns par rapport aux autres.

Internet repose sur des mécanismes de base très simples, c'est ce qui en a fait sa force durant très longtemps. C'est la politique du "best effort" : on fait ce qu'on peut, mais on ne garantit rien. Par exemple, lors du routage d'un paquet IP, le routeur recherche dans sa table de routage la première interface associée à l'adresse destinataire du paquet, puis envoie ce paquet à ladite interface. C'est le service minimum. Le routeur ne se soucie pas de savoir si le chemin pointé par une interface est meilleur qu'une autre en terme de nombre de noeuds, de bande passante, de disponibilité. C'est ce qu'on appelle la méthode de la "patate chaude". Désormais, c'est un inconvénient. Internet ne répond plus aux nouveaux besoins apparus récemment avec les services associés au haut débit qui nécessitent d'emprunter le meilleur chemin qu'il faut alors calculer à l'avance. Ainsi, on a pu identifier de nouvelles contraintes tels que le contrôle de la gigue pour assurer un service temps réel de qualité mais aussi le contrôle de congestion pour la continuité de service et bien d'autres encore. De nouveaux protocoles de routage ont alors fait leur apparition pour choisir l'interface de sortie en fonction du chemin le plus performant.

Jusque dans les années 90, les webmasters devaient rivaliser d'imagination pour créer des pages web attractives tout en étant très économes en performances réseau. La majorité des connexions se faisant en RTC 28 Kbps, les vidéos étaient exclues et habilement remplacées par des animations JavaScript ou Flash (format vectoriel moins volumineux). Les images étaient systématiquement redimensionnées, le nombre de couleurs réduit, et compressées de préférence. Les fichiers musicaux étaient à éviter, à moins d'utiliser le format de description MIDI (au lieu de l'échantillonnage WAV). La course à l'économie passait même jusqu'à "compresser" le code HTML en supprimant tout espace et saut de ligne inutile ainsi qu'en utilisant des frames (non rechargement de certaines parties des pages) et des feuilles de styles externes (un seul et même fichier pour tout le site). Les évolutions qui vont suivre, vont leur permettre d'enrichir considérablement leurs pages grâce à des chartes graphiques de grande qualité. Il reste actuellement certains problèmes de performance qui devront être éliminés dans un futur proche. Par exemple, le peu de contrôle de la gigue (variation stochastique de la latence du réseau) qui oblige les players à buffériser les vidéos pour pouvoir les jouer normalement, cette opération désynchronise les vidéos entre elles et est gourmande en espace mémoire. Il existe encore quelques problèmes d'intégrité des données : il arrive régulièrement que des fichiers échangés soit corrompus par une erreur de transmission, ils sont alors inutilisables et doivent être téléchargés à nouveau. La gestion des congestions n'est pas encore au point : lors des attentats du 11 septembre 2001, tous les sites d'informations sont rapidement devenus inaccessibles du fait de la demande énorme.

C'est ainsi que des révolutions technologiques sont apparues dans des domaines divers. Pour permettre l'enrichissement des contenus web, on a d'abord augmenté le débit par l'utilisation de la fibre optique et du satellite. Puis on a dû accroître les capacités de traitement des routeurs en repensant leur architecture afin d'assurer le routage de l'énorme flot de données générées. L'infrastructure générale du réseau a été complétée par des mécanismes de cache et de proxy permettant d'économiser la bande passante surchargée et de transformer les documents en fonction des besoins des utilisateurs. Les protocoles de communications ont eux aussi été revus pour une gestion plus efficace des ressources. Mais comme cela n'est pas suffisant, tous les algorithmes de routage, et d'ordonnancement ont subi un lifting. De plus, de nombreuses recherches ont mené à l'invention d'algorithmes performants de contrôle de congestion, de régulation du trafic et de réservation de ressources.

C'est tout cet ensemble d'innovations technologiques qui a permis d'en arriver à ce que l'on nomme la "qualité de service". Cela signifie que l'on est désormais capable d'analyser les performances du réseau et d'en orienter le fonctionnement afin de garantir qu'un certain nombre de contraintes inhérentes aux services proposés seront respectées. C'est un cap majeur dans l'histoire de l'Internet.

Seulement, jusqu'à tout récemment, cette qualité de service n'était que peu exploitée car les outils pouvant utiliser ces nouvelles caractéristiques n'existaient pas encore. Par exemple le langage de description des pages web : le HTML, ne propose aucun mécanisme nouveau par rapport à l'ère précédente. C'est pourquoi le langage SMIL a été mis au point. Le langage SMIL permet - au même titre que le HTML - d'élaborer des présentations multimédias accessibles sur le web. SMIL exploite la qualité de service et propose via une grammaire simple et rigoureuse (XML) de synchroniser ses éléments multimédias par un contrôle temporel relatif (de chaque élément) et global (des éléments entre eux) total, de s'adapter aux performances du réseau (bande passante) et à l'utilisateur (langue, résolution d'écran). Il conserve toute l'interactivité du DHTML (sensibilité aux évènements souris et clavier) tout en lui ajoutant un pouvoir expressif proche des documents PowerPoint (animations, dessins, transitions) et en respectant les dernières recommandations en terme d'adaptabilité aux plates-formes (PC, PDA...) et d'indexation sémantique des contenus (méta-informations). Il existe d'ores et déjà des "SMILthèques" (Renater, Aristote, Inria) qui proposent des présentations assurant la formation en ligne des internautes. C'est assurément le format de l'e-learning. SMIL est normalisé par le W3C et est produit par un consortium regroupant l'industrie du logiciel, des constructeurs de matériel hifi-informatique-téléphonie ainsi que des centres de recherche gouvernementaux. La version 2 est sortie en 2001, ce langage pérenne est en constante évolution, mais reste syntaxiquement assez proche du HTML bien connu des webmasters ce qui en fait le candidat idéal pour l'avenir du web.

Les perspectives de la qualité de service sont multiples. Il est désormais possible de proposer de la vidéo à la demande - fort gourmande en débit et sensible à la gigue, de développer des logiciels collaboratifs - très sensibles à la latence du réseau et au délai garanti, de s'abonner à la télévision interactive - enrichie par le langage SMIL, de procéder à des diagnostics médicaux à distance - exigeants en confidentialité et en intégrité, d'utiliser des applications scientifiques distribuées - strictes en matière d'intégrité et de disponibilité, de jouer en réseau, etc.

Le contrôle des performances et de l'usage des ressources du réseau rend possible la facturation de l'usage qu'on en fait en fonction des contraintes de qualité exigées. Il est en effet devenu possible de garantir une qualité de service et il est techniquement envisageable de facturer cette qualité, ce qui n'était pas possible auparavant. On peut se demander si ce contrôle peut être une menace pour la "liberté" dont l'Internet était le symbole. Et comment sera réparti l'argent récolté : les institutions publiques participant majoritairement à l'installation des infrastructures seront-elles indemnisées pour leur participation financière ? Une partie de l'augmentation spectaculaire des performances du réseau ces dernières années est malheureusement confisquée et gaspillée par des entreprises peu scrupuleuses qui abusent de l'e-mail par des envois massifs non sollicités qui compromettent le bon fonctionnement du réseau et qui tendent à éloigner bon nombre d'internautes potentiels : plusieurs milliards de spams sont envoyés chaque jour !

5. Bibliographie

5-1. Réseaux

  • Differentiated Services, Gordon Chaffee, 1998
  • Introduction aux réseaux, Congduc Pham
  • IP Next generation (IPv6), Shivkumar Kalyanaraman
  • MPLS, PERRAUD - WEISS - MERCIER
  • Introduction to multicast, Congduc Pham
  • Protocoles de routage, Bernard Rapacchi - Bernard Tuy
  • Les nouveaux challenges l'Internet, Congduc Pham
  • Quality of Service & Scheduling, Congduc Pham
  • Les réseaux multiservices DQDB, ATM, Congduc Pham
  • Routeurs : évolution et technologies, Nick McKeown
  • Router Forwarding, Nick McKeow - Kalyanaraman - Keshav - Congduc Pham
  • RSVP: The ReSerVation Protocol, Gordon Chaffee, 1998
    Tous disponibles ici : http://www.ens-lyon.fr/~cpham
  • Gestion de la qualité de service : Concepts et mécanismes, Zoubir MAMMERI, 2003, IRIT - Toulouse3
  • Caches web et proxy, Olivier Aubert, 2001, http://bat710.univ-lyon1.fr/~oaubert

5-2. SMIL