Tout de suite, je me suis dit, pourquoi quelques centaines une fois
par année? Pourquoi pas faire une analyse de tendances fines sur un
grand échantillonnage. Par contre, faut compter que la vérification de
100,000 pages par semaine pourrait bouffer 2Go par semaine en bande
passante. Je m'attend à ce que la validation du HTML soit quand même
une opération pas entièrement triviale au niveau de la consommation de
mémoire et du temps de calcul. Il serait quand même plus intéressant
d'avoir une analyse dynamique, et des graphiques par semaine. Quelque
chose comme netcraft. Je pense que l'acquisition des pages à vérifier
pourrait se faire aussi à la netcraft: il suffit d'entrer une page
dans le validateur pour qu'elle s'ajoute à la liste des pages
vérifiées. Elle y reste jusqu'à des 404 à répétition. Je ne sais pas si ça existe quelque part... le message de Denis laisse
entendre que ce n'est pas nouveau... j'aimerais bien connaître un tel
site si ça existe! On Mon, 08 Nov 2004 20:03:04 -0500, Denis Boudreau [W3Québec]
wrote:
> zara wrote:
> > > Je sais que ça n'aide pas beaucoup mais bon, j'aimerais bien moi aussi
> > découvrir ce genre d'observatoire...
> > Y'en a pas ? Faisons-la ! Et si on dressait une liste de quelques
> centaines de sites et qu'on les passait au validateur une fois par année
> ? Le concept n'a rien de neuf, mais il aurait l'intérêt d'être local. On
> pourrait en tirer des statistiques, des tendances, etc.
> > --
> Denis Boudreau [ W3Québec ]
> Président Fondateur
> > Web : http://www.w3qc.org/
> Mail : dboudreau [at] w3qc.org
> Tél. : 514.448.2650 | 514.730.9168
> ICQ : 115649885
> > > > _______________________________________________
> Public-w3qc.org mailing list
> Public-w3qc.org at lists.w3qc.org
> http://lists.w3qc.org/listinfo.cgi/public-w3qc.org
>