Accueil Recherche | Plan Technique | Liens | Actualités | Formation | Emploi | Forums | Base
logo CERIG NOTE TECHNIQUE cerig.efpg.inpg.fr 
Vous êtes ici : Accueil >Technique > Internet et le web > Analyse du trafic d'un site web (1)           Révision : 02 mars 2000
Note précédente Liste des notes     Analyse du trafic d'un site web (1)     Page technique Note suivante
 
Jean-Claude Sohm et Jocelyne Rouis (CERIG / EFPG)
(03 février 2000)
 

Comme tous les serveurs du web, le CERIG enregistre dans un fichier "log" diverses données relatives à chaque client qui l'interroge. En analysant les enregistrements correspondants, on peut se faire une idée de l'équipement (système d'exploitation, navigateur) des clients du site.
   Les internautes qui visitent le CERIG sont mus par des motifs professionnels. Ils utilisent principalement la plate-forme Windows (82 %) et le navigateur Internet Explorer (68 %). Ils sont moyennement pressés de télécharger la version la plus récente du navigateur de leur choix.
 

Introduction

En savoir plus sur...

L'analyse du trafic d'un site web permet de savoir comment est équipé l'internaute "moyen" qui visite le site, et par quelle voie il est arrivé sur le site (bookmark, moteur de recherche, lien hypertexte).

Les données relatives à l'équipement sont : la plate-forme et la version du système d'exploitation, le navigateur et sa version, et -- depuis un an environ -- la résolution d'écran et la profondeur de couleur utilisés.

Les données relatives à l'origine du trafic permettent de distinguer une requête d'internaute de celle d'un moteur de recherche ou d'un "agent intelligent" (ou autre "aspirateur de sites"). En ce qui concerne l'internaute, on peut distinguer celui qui a suivi un lien, de celui qui provient d'un moteur de recherche (avec la question qu'il a posée), et de celui qui a simplement tapé l'adresse du site dans son navigateur où l'a récupérée dans sa liste de "bookmark". En utilisant un annuaire DNS inverse, on peut remonter au nom de domaine et à la localisation géographique de l'internaute.

Toutes ces données permettent au webmestre du site d'adapter la présentation et le contenu du site à sa clientèle, d'améliorer son référencement, de modifier ses mots-clés, et en définitive de faire croître son trafic. L'analyse du trafic devient l'une des tâches prioritaires du webmestre, car elle l'aide à remodeler sa stratégie.

Le protocole HTTP et ses conséquences

Le protocole HTTP permet à un client -- l'internaute -- de communiquer avec un serveur web. Le client qui désire recevoir de l'information envoie une requête au serveur. Outre l'URL du fichier requis, et les informations nécessaire à la communication, cette requête contient un certain nombre de champs facultatifs.Un tel champ est appelé "header" (il y en a 46 dans la version 1.1 -- la plus récente -- du protocole HTTP). Les "headers" les plus souvent cités sont :

    le "From header" : ce champ contient l'adresse électronique du client ;
  le "Referer header" : ce champ indique où a été trouvée l'URL du fichier requis ;
  le "User-Agent" header : ce champ contient des informations relatives au navigateur du client ;
  etc.

Chaque header n'est pas utilisé de la même façon par un navigateur et par un robot, ce qui permet de distinguer les accès correspondants. Ainsi, le robot d'un moteur de recherche -- si ce dernier respecte la nétiquette, c'est à dire l'ensemble des règles de bonne conduite d'Internet --  utilise le "From header" pour indiquer son adresse électronique. Si le robot fonctionne mal, et perturbe le fonctionnement d'un serveur, le webmestre de ce dernier peut envoyer un courrier électronique au moteur de recherche pour lui signaler que quelque chose ne va pas. Le "From header" n'est pas utilisé par un navigateur, logiciel commercial dont le mauvais fonctionnement éventuel ne peut pas être imputé au client.

Le "Referer header" permet de savoir où a été trouvé l'URL du document demandé au serveur. Ce dernier peut ainsi savoir si le client a utilisé un "bookmark" ("signet" chez Netscape, "favori" chez Microsoft), ou un moteur de recherche. On admet généralement que, si ce champ est vide, le client a tapé l'URL directement dans le champ "adresse" de son navigateur. Ce header n'est pas utilisé par un robot. On notera avec amusement que le mot "referer" devrait s'écrire "referrer", mais que le premier rapport écrit sur cette question comportait une faute d'orthographe, que l'on a pieusement conservée depuis.

Le "User-Agent header" est utilisé par les navigateurs. Lorsque le mot "compatible" y figure, il s'agit du navigateur de Microsoft. Les navigateurs autres que ceux de Netscape et de Microsoft ne se signalent pas toujours de façon très claire -- mais cela n'a aucune importance en pratique, car on ne les rencontre que très rarement. Le header "User-Agent" n'est généralement pas utilisé par un robot.

Le serveur web qui reçoit une requête enregistre les informations des "headers" dans un fichier appelé "log", ou encore "hitlist". En dépouillant les enregistrements de ce fichier, on peut se livrer à une analyse du trafic du site ("web site traffic analysis", ou tout simplement "tracking") : savoir d'où vient le client, connaître l'adresse IP de sa machine (donc son nom de domaine, et sa localisation géographique, en interrogeant une base DNS inverse), le système d'exploitation et le navigateur qu'il utilise, etc. Dès que la fréquentation d'un site augmente, le fichier log prend des proportions imposantes, et il devient impératif de disposer d'un logiciel spécialisé pour l'analyser ("log analysis tool" ou "tracker"). Ainsi, le CERIG sert actuellement 10.000 "ressources" (fichiers) par semaine, et à chacune de ces ressources correspond une ligne dans le fichier log.

Les entreprises qui utilisent les services d'un fournisseur de prestations Internet pour héberger leur site web, sont tributaires des services de ce dernier pour l'analyse de leur trafic. La qualité du service varie beaucoup d'un ISP à l'autre : elle va du néant, à une analyse dont la médiocrité se situe dans la bonne moyenne.

Une autre solution consiste à sous-traiter l'analyse du trafic de son site web, auprès d'une entreprises spécialisée, qui fournit régulièrement un "site traffic report" ou "site analysis report", plus ou moins détaillé et plus ou moins illustré. Il existe une demi-douzaine d'entreprises de ce type sur le web ; les plus célèbres sont HitBox  et eXTReMe Tracking. La méthode consiste à introduire dans les pages web une image dont le nom identifie le site de manière sûre, et dont l'adresse mène à l'entreprise en question. Cette image est le plus souvent invisible (monopixel, et/ou transparente), mais Extreme Tracker fait exception en utilisant son logo (le client peut demander à ce que ce logo soit absent, mais le service n'est plus gratuit). Une solution de facilité consiste à introduire l'image en question dans la page d'accueil uniquement, mais cela fausse beaucoup les résultats de l'analyse et donne des valeurs par défaut. Ceci dit, un site moyen comme le CERIG contient près de 500 pages HTML, et il ne serait guère concevable d'introduire le code requis dans chacune d'entre elles ! On perçoit ainsi les limites de cette méthode. On notera que les webmestres qui recourent à ce service possèdent en général un site de fréquentation moyenne ; ceux qui possèdent un site très fréquenté analysent leur trafic en interne, et ceux qui gèrent un petit site n'analysent souvent rien du tout, ou se contentent d'un simple compteur ("counter") au lieu d'un "tracker".

Les techniques du "tracking" se sont récemment améliorées, et quelques entreprises proposent désormais la détection de la résolution d'écran et de la profondeur de couleur utilisés par l'internaute. Ces données ne se trouvent dans aucun "header", et il faut utiliser d'autres techniques -- applet Java ou script côté client -- qui testent l'état de la fenêtre du navigateur.

Bien que les entreprises de tracking soient peu bavardes quant aux résultats qu'elles glanent ainsi (car ces résultats font l'objet de rapports qui sont vendus), on sait à peu près comment est en moyenne équipé l'internaute :

    le navigateur : celui de Microsoft devance désormais celui de Netscape par 2 contre 1, sinon plus. Son avance est plus forte sur la plate-forme Windows que sur la plate-forme Apple ;
  la plate-forme : Windows est utilisé par plus de 90 % des internautes, MacOS par environ 5 %, les autres systèmes d'exploitation sont presque évanescents -- y compris Linux ;
  la résolution d'écran : 800x600 est de loin la plus utilisée, 1024x768 gagne du terrain, mais 10 à 15 % des internautes utilisent encore la résolution du VGA (640x480) ;
  la profondeur de couleur : 2 octets est la profondeur la plus répandue (32 K couleurs), suivie par 3 ou 4 octets (16 M couleurs), mais environ 10 % des internautes sont encore limités à 256 couleurs.

Les webmestres se plaignent de ce que l'utilisation de plus en plus fréquente des serveurs proxy fausse les résultats des analyses de trafic : même si une page est demandée plusieurs fois par divers clients dépendant d'un même proxy, le serveur web qui fournit la page ne voit qu'un seul accès. L'erreur de comptage correspondante est d'autant plus grande que le temps pendant lequel l'information est conservée dans le cache du proxy est plus long. Les plus gros utilisateurs de serveurs proxy sont les fournisseurs d'accès (17 % actuellement). Ils prétextent qu'ainsi leurs clients sont servis plus vite-- ce qui est vrai dans certains cas -- mais leur vraie motivation réside en fait dans l'enregistrement du profil des consommateurs en vue de leur expédier de la publicité ciblée.

Il est possible de se faire une idée de l'erreur de comptage due au cache du proxy des fournisseurs d'accès, en remarquant que les internautes qui en dépendent semblent demander moins de pages par visite que les autres. Les fichiers log du CERIG révèlent que l'effet est particulièrement marqué avec AOL. Nous n'avons pas cherché à faire de correction, parce que les accès au site du CERIG via AOL sont relativement peu nombreux, et que l'on peut toujours mettre en cause le bien fondé d'une telle procédure.

Pour analyser le trafic de notre site, nous avons rencontré des difficultés liées au fait que le serveur du CERIG est un Mac : le fait est assez rare sur le web (1,4 % des cas), et il en résulte que les logiciels d'analyse utilisables sont à la fois peu nombreux et moins élaborés que ceux des plates-formes Windows ou Unix. De plus, le logiciel serveur est une ancienne version de Webstar, antérieure à la dernière version du protocole HTTP, et qui ne reconnaît pas tous les headers. Notre situation s'améliorera avec la mise en service prochaine de notre nouveau serveur, qui utilise Windows NT, IIS 4 et Site Server. En attendant, nous avons utilisé les moyens du bord pour nous livrer à une petite étude statistique de l'équipement des internautes qui ont visité le CERIG au cours des six premières semaines de l'année 2000.

Il serait imprudent de tirer de ces chiffres des conclusions quant au comportement de l'internaute moyen, parce que le CERIG n'est pas un site généraliste. L'information qu'il présente se rapporte aux industries graphiques au sens large, car il couvre également les domaines connexes : informatique, télécommunications, Internet. Il est de plus probable que la majorité des internautes qui visitent le CERIG ont des motifs professionnels.
 

Les données

Le réexamen récent des chiffres que nous avions publié le 3 février dernier nous a montré qu'une partie non négligeable du trafic semblait être de nature malveillante : la même page était demandée par le même client toutes les deux secondes, et ce pendant de nombreuses minutes. Un tel processus s'apparentait à du DoS (Deny of Service), bien que le CERIG n'eût pas un trafic suffisant pour attirer l'attention des hackers. L'enquête de notre webmestre aboutit finalement à une société d'informatique (dont nous tairons pudiquement le nom), qui essayait un nouveau robot, lequel -- c'est clair -- n'était pas vraiment au point. Nous avons donc éliminé ce trafic parasite de nos statistiques, et nous en avons profité de l'occasion pour étendre notre étude sur une période de six semaines au lieu de quatre. Les nouveaux chiffres nous ont amené à modifier légèrement les conclusions que nous avions tirées précédemment.

Le tableau I ci-dessous décrit les échantillons qui ont fait l'objet de l'analyse de trafic. Seules les pages HTML ont été prises en compte, à l'exclusion des autres fichiers (ceux qui contiennent les figures) ; c'est ce que l'on appelle "page view" en anglais. Le terme "hit", très souvent utilisé, correspond à la fourniture d'un fichier quelconque : page HTML, figure, feuille de style, script côté client, applet, contrôle ActiveX, etc. Le nombre de "hits" d'un site est donc en général très supérieur au nombre de "page views". Dans la suite de ce texte, nous utiliserons le terme "accès" pour traduire "page view".

I - LE TRAFIC DU CERIG
Accès : Semaines de l'année 2000 Moyenne
S. 1 S. 2 S. 3 S. 4 S. 5 S. 6
- avec identification de l'équipement 3.435 4.132 5.898 5.947 5.306 4.040 4.793
- des robots et "agents intelligents" 701 1.749 2.217 1.879 2.399 3.920 2.144
- non élucidés 146 722 724 417 1.190 80 547
Total des pages HTML servies  : 4.282 6.603 8.839 8.243 8.895 8.040 7.484

Les robots, "agents intelligents" et autres "aspirateurs de sites" (en anglais : "crawlers", "spiders") ne fournissent pas les mêmes informations que les navigateurs, et il n'est généralement pas possible de connaître l'équipement qu'ils utilisent ; c'est pourquoi nous les avons classés à part. Notre logiciel d'analyse de trafic ne fait pas la différence entre ces deux dispositifs, mais une étude détaillée du fichier log de la semaine 6 a montré qu'environ 60 % des accès de cette catégorie (soit 2.400) était dus aux robots des moteurs de recherche, le reste (1.500) correspondant aux agents intelligents (dans lesquels nous incluons les aspirateurs de sites).

trafic du CERIG (5,4 Ko)

Comme le montre la figure ci-contre (tracée avec les données du tableau I), les semaines se suivent mais ne se ressemblent pas. Le trafic total croit rapidement pendant les trois premières semaines, puis plafonne -- la part des robots et agents "intelligents" ne cesse d'augmenter -- les cas non élucidés varient dans de larges proportions sans que nous sachions pourquoi.

C'est un fait d'expérience que les données relatives à Internet en général, et au web en particulier, évoluent très vite et  fluctuent énormément. Nous en verrons la confirmation dans la suite de cet exposé.

Deux raisons expliquent que les visites des robots soient de plus en plus nombreuses : les moteurs de recherche se multiplient, et la concurrence à laquelle ils se livrent (en tant que "portails du web") fait qu'ils tentent d'analyser un nombre de pages de plus en plus grand, et de mieux tenir à jour leurs index. Les webmestres les voient donc passer de plus en plus nombreux, et de plus en plus assidus.

Les agents "intelligents" sont également de plus en plus présents parce que, malgré leur coût généralement élevé, ils permettent de gagner du temps. Comme les robots, ils opèrent de préférence la nuit, lorsque le réseau Internet est peu embouteillé. Leurs propriétaires peuvent ensuite examiner hors ligne les pages "aspirées", sans avoir à attendre qu'elles se téléchargent.

Le tableau II recense, parmi les accès avec identification de l'équipement de l'internaute, ceux qui ont été obtenus via les trois plus importants fournisseurs d'accès à Internet en France -- Wanadoo, AOL et Club-Internet -- dont les nombres d'abonnés sont dans les rapports 8/4/3 environ.

II - ACCÈS via des fournisseurs de services
Accès via : Semaines de l'année 2000 Moyenne
S. 1 S. 2 S. 3 S. 4 S. 5 S. 6
Wanadoo 576 539 1.502 1.506 1.973 751 1.141
AOL 47 33 99 84 514 212 165
Club-Internet 95 105 85 164 175 77 117

Club-Internet, et plus encore AOL, ont essentiellement une clientèle de particuliers. Du fait que le nombre des accès via ces deux ISP est proportionnellement très faible, nous déduisons que le public du CERIG est essentiellement composé de personnes mues par des motifs professionnels. Nous aurions été surpris qu'il en soit autrement, car le contenu du CERIG n'est pas conçu pour les particuliers (mais nous sommes enchantés de compter quelques particuliers parmi nos visiteurs). Par contre, de nombreuses entreprises utilisent les services de Wanadoo pour se connecter à Internet en tant que client, ce qui explique le nombre élevé d'accès via ce fournisseur.
 

Le système d'exploitation (1)

Les informations générales relatives au système d'exploitation du poste de travail de l'internaute sont rassemblées dans le tableau III ci-dessous. Comme on peut le constater, les pourcentages fluctuent fortement : il y a beaucoup de bruit (au sens statistique du terme) sur le web. Il est donc conseillé de calculer les moyennes pour des sites dont la fréquentation est appréciable, et sur une période de temps relativement courte pour minimiser les effets d'une dérive éventuelle.

III - LE SYSTÈME D'EXPLOITATION
SE : Semaines de l'année 2000 Moyenne
S. 1 S. 2 S. 3 S. 4 S. 5 S. 6
Windows 2.833 3.231 4.522 4.771 4620 3.522 3.916
82,5 % 78.2 % 76,7 % 80,2 % 87,1 % 87,2 % 81,7 %
Mac OS 596 893 1.365 1.148 641 510 859
17,3 % 21.6 % 23,1 % 19,3 % 12,1 % 12,6 % 17,9 %
Autres (SunOS, Linux,
           Java, AIX, etc.)
6 8 11 28 45 8 18
0,2 % 0,2 % 0,2 % 0,5 % 0,8 % 0,2 % 0,4 %

L'examen de ce tableau suscite les remarques suivantes :

    le système d'exploitation Windows de Microsoft se taille la part du lion, ce qui n'est pas surprenant ;
  la part de la plate-forme Apple est plus faible que nous ne le pensions a priori ;
  le rôle des autres systèmes d'exploitation est évanescent.

SE clients CERIG (3 Ko)

La figure 2 reprend les données du tableau précédent en fractionnant Windows en ses diverses composantes. On peut rapprocher ces chiffres de ceux publiés par StatMarket. Ce site est payant (le CERIG n'y est pas abonné), mais il lève de temps en temps un coin du voile, et les informations divulguées sont diffusées sur le web. Ainsi, Applelinks a publié au mois d'octobre dernier les statistiques rassemblées dans le tableau IV.

IV - SYSTÈME D'EXPLOITATION :
Les statistiques de StatMarket (Octobre 1999)
Win98 Win95 Win3.x Win NT Mac WebTV Linux SunOS Autres
53.42 % 34,14 % 0,67 % 6,31 % 2,74 % 1,08 % 0,22 % 0,14 % 0,16 %

Ces chiffres montrent la domination considérable (94,5  %) du système d'exploitation Windows sous ses diverses versions, la portion congrue à laquelle est réduite le Mac (2,7 %), l'absence presque complète des autres systèmes d'exploitation du poste de travail des internautes (0,5 %), et la toute petite percée de WebTV (1,1 %) malgré plusieurs années d'efforts et le soutien de Microsoft. Ces chiffres, obtenus grâce au système HitBox, sont basés sur l'analyse d'un trafic considérable, dû à la fois au grand public et aux professionnels : plus de 30 millions de pages par jour, en provenance de  plus de 100.000 sites. Certes l'échantillon -- si l'on ose l'appeler ainsi ! -- est légèrement biaisé par le fait que les grands sites font leur analyse de trafic eux-mêmes, et que les tout petits ne font pas d'analyse du tout. Mais ces chiffres valent bien ceux que publient les instituts de sondage, qui basent leurs études sur quelques centaines de sites seulement.

Il est clair qu'actuellement Windows est le système d'exploitation de près de 95 % des micro-ordinateurs, et l'on comprend que les concurrents de Microsoft aient remué ciel et terre pour que le gouvernement américain intente un procès anti-trust à l'éditeur. Que les mesures qui seront prises fassent l'affaire des dits concurrents, c'est à peu près certain. Qu'elles aillent dans le sens de l'intérêt des consommateurs est moins sûr. L'exemple d'Unix est là pour rappeler à chacun que plus le marché d'un système d'exploitation est fragmenté, plus les fournisseurs de machines enferment leurs clients, plus les prix montent, et plus la connectivité entre plates-formes diminue. "Qui vivra verra", dit le proverbe.

La part d'Apple dans le marché mondial de la micro-informatique est passée de 8 à 4  % environ, par suite des turbulences traversées par l'entreprise en 1995-97. La base installée n'a évidemment pas encore décru dans les mêmes proportions, et on peut l'estimer à 6 % environ. Certes il s'agit là d'une valeur moyenne, mais on peut être surpris de la faiblesse du chiffre cité par StatMarket. En France, la part de marché d'Apple a toujours été bien supérieure (deux fois ?) à la moyenne mondiale. Enfin, une partie des visiteurs du CERIG appartient au secteur des industries graphiques, où le Mac règne toujours en maître. Que 18 % seulement des accès proviennent d'un Mac nous surprend quand même un peu. Nous pouvons l'expliquer ainsi :

    le public du CERIG ne se limite pas au secteur des industries graphiques, ce que confirme l'examen du courrier électronique reçu par le site ;
  le matériel utilisé pour interroger le web ne reflète pas forcément l'équipement de l'entreprise ;
  en tant que clients d'Internet, les particuliers sont souvent mieux équipés que les entreprises, si bien que certains professionnels utilisent leur système personnel pour interroger le web. Or le Mac est plutôt rare à la maison -- le PC est tellement moins cher ! Aux États-Unis, les internautes seraient 2,5 fois plus nombreux à domicile qu'au travail.

Si ces explications vous paraissent spécieuses, considérez le trafic du site de l'organisme appelé IAPHC. Ce sigle correspond à l'association des personnes travaillant (aux États-Unis) dans les arts et industries graphiques. Les visiteurs de ce site utilisent Windows à 77 %,  et le MacOS à 21 %. Et pourtant, la majorité de ces professionnels utilise un Mac pour son travail !

Le système d'exploitation Unix -- Linux en fait partie -- apparaît extrêmement peu dans le tableau III. Ceci n'a rien d'étonnant en ce qui concerne les versions établies d'Unix : lorsqu'on installe SunOS ou HP-UX sur une station de travail, c'est pour faire tourner des applications plus gourmandes en ressources qu'un simple navigateur web ; les internautes ont raison de ne pas utiliser un marteau-pilon pour écraser une noisette.

Le cas de Linux doit être considéré séparément, d'abord parce que ce système d'exploitation est récent, ensuite parce qu'il peut être installé sur PC, et enfin à cause de la médiatisation fantastique ("hype") qui l'entoure actuellement. Si l'on en croit une étude récente d'IDC (International Data Corp.) citée par C/Net, la part de marché de Linux atteindrait 4 % sur les postes de travail. Au vu de ce que tous les webmestres constatent quand ils analysent le trafic de leur site web, ce chiffre apparaît comme très fortement exagéré. Cela jette un doute sur un autre chiffre cité par IDC : Linux serait maintenant le numéro deux des systèmes d'exploitation pour serveurs (avec 25 % du marché, en nombre d'exemplaires), derrière Windows NT Server (38 %). On sait que les administrateurs de réseau sont toujours très prudents quand il s'agit de migrer d'un système d'exploitation à un autre, car ils ne peuvent pas prendre le risque de paralyser leur entreprise. Il est donc totalement invraisemblable que Linux ait pris une telle importance en si peu de temps (2 ans), même si chacun s'accorde à prédire à ce nouveau système d'exploitation une belle carrière sur les serveurs d'entreprise. Un des concurrents d'IDC, Dataquest, vient d'ailleurs de publier une étude qui prédit que Linux ne conquérra pas le quart du marché des serveurs avant 2003. Il semble en définitive que le surcroît de "hype" qui a entouré Linux ces derniers mois soit lié à l'introduction au Nasdaq (la bourse high tech américaine) de PME jouant leur avenir sur ce nouveau système d'exploitation. L'opération a été fort bien réussie : la cotation d'une de ces entreprises a été multipliée par 8 en une seule journée !

Les interrogations provenant d'un WebTV sont absolument rarissimes au CERIG. Ce système (une "set-top box" raccordée à un poste de télévision et à une prise téléphonique) est très peu implanté en Europe (aux États-Unis, il est encore peu répandu). Des études mirifiques sont régulièrement publiées, qui prévoient un développement considérable de ces "net appliances" (les dispositifs élecro-domestiques permettant d'interroger Internet), au point de faire pâlir les constructeurs de micro-ordinateurs. Mais... vous vous souvenez de ces études du Gartner Group prévoyant que le NC (net computer) allait remplacer le PC en quelques années ? Considérez ce qu'il en est advenu, et gardez votre PC : il peut encore servir.

Le fichier log du serveur du CERIG permet de distinguer entre les Macs équipés d'un processeur PowerPC et ceux qui ne le sont pas, mais ces derniers représentent une part tout à fait négligeable du total. Les internautes adeptes du Mac sont donc correctement équipés : les vieux riblons ont disparu.

La SUITE de cette note technique...
Note précédente Liste des notes Page technique  Note suivante 
 
Accueil | Technique | Liens | Actualités | Formation | Emploi | Forums | Base
 
Copyright © CERIG/EFPG 1996-2002
Mise en page : J.C. Sohm