w3qc.org

w3qc.org

[W3Qc-public] stats

Daniel Lemire wrote: >Tout de suite, je me suis dit, pourquoi quelques centaines une fois
>par année? Pourquoi pas faire une analyse de tendances fines sur un
>grand échantillonnage. Par contre, faut compter que la vérification de
>100,000 pages par semaine pourrait bouffer 2Go par semaine en bande
>passante. Je m'attend à ce que la validation du HTML soit quand même
>une opération pas entièrement triviale au niveau de la consommation de
>mémoire et du temps de calcul. Il serait quand même plus intéressant
>d'avoir une analyse dynamique, et des graphiques par semaine. Quelque
>chose comme netcraft. Je pense que l'acquisition des pages à vérifier
>pourrait se faire aussi à la netcraft: il suffit d'entrer une page
>dans le validateur pour qu'elle s'ajoute à la liste des pages
>vérifiées. Elle y reste jusqu'à des 404 à répétition.
>
>Je ne sais pas si ça existe quelque part... le message de Denis laisse
>entendre que ce n'est pas nouveau... j'aimerais bien connaître un tel
>site si ça existe!
> >

Beaucoup de questions très pertinentes Daniel. Tout d'abord, j'ai proposé la forumule d'une vérification par année sur un ensemble de sites simplement parce que je me plaçais dans l'optique de prendre une mesure qualitative au niveau de la conformité aux normes du Web québécois, dans le même esprit que l'évaluation d'accessibilité de Jean-Marie et de la Fondation des Aveugles... je vois bien ces deux documents arriver en même dans dans le marché et s'appuyer l'un sur l'autre pour dresser des portraits éloquents de la situation, années aprés années. L'intérêt au départ n'est pas tant de savoir si les sites sont valides (on sait d'avance qu'ils ne le seront pas), mais bien de mesurer si ceux-ci s'améliorent avec le temps. L'intérêt d'une vérification annuelle repose essentiellement sur de point. Le travail pour nous serait plutôt simple, quoique probablement de longue haleine... passer chaque page d'accueil au validateur et recencer les erreurs afin de dresser une courbe évolutive d'années en années. Un tel suivi serait très pertinent pour notre groupe et pourrait constituer une première action concrète pour mesurer la qualité du Web au Québec d'un point de vue purement W3Québec. Pour la bande passante, il n'y a aucun rique puisque les outils ne sont pas hébergés chez nous et qu'ils sont déjà libres d'utilisation... le W3C nous pardonnera bien l'utilisation de leurs outils quelques centaines de fois par années. ;) Je serais bien sur tout à fait ouvert à une analyse dynamique, mais dans la mesure ou il nous faudrait des ressources beaucoup plus considérables pour la diriger et l'amener à terme, cette avenue me fait un peu plus peur. Toutefois, si quelqu'un arrivait avec des (pistes de) solutions à cet effet, je crois qu'une telle initiative n'en serait que bonifiée. Ne connaissant pas NetCraft, je ne peux comparer avec quoi que ce soit, mais il est clair qu'une action de ce type devrait normalement être appelée à s'améliorer avec le temps, donc à éventuellement passer par un processus plus complexe et proportionnellement plus intéressant en terme de résultats également. L'idée n'est pas nouvelle, c'est clair. Elle a été menée à quelques reprises, notamment sur les sites des membres du W3C dans les dernières années mais depuis un moment on en entend plus parler pour une raison ou une autre (le site de Marko Karpinnen est down depuis x temps). Tu peux quand même obtenir une idée de ses constatations en suivant ici : http://news.zdnet.com/2100-1009_22-956778.html Il y a aussi l'étude d'accessibilité de 2003, mentionnée plus haut, qui recensait 200 sites Web québécois d'intérêt public pour mesurer leur niveau d'accessibilité. -- Denis Boudreau [ W3Québec ]
Président Fondateur Web : http://www.w3qc.org/
Mail : dboudreau [at] w3qc.org
Tél. : 514.448.2650 | 514.730.9168
ICQ  : 115649885