J’entend à peu près totu et n’importe quoi sur la taille du web (et d’internet)?
nombre de pages, nombre de sites, répartition par langues, par domaine ect ect…
Par exemple j’ai ça:
“The Web is the largest document ever written, with more than 4 billion public pages and an additional 550 billion connected documents on call in the “deep” Web (Lyman and Varian 2000). The Web is written in 220 languages (although 78 percent of it is in English) by authors from every nation. Ninety-five percent of Web pages are publicly accessible, a collection 50 times larger than the texts collected in the Library of Congress (LC),…”
C’est bien beau mais où et comment pêchent-ils leurs infos? Y a une institution qui fait des stats “sérieuses” sur la taille d’internet? Si oui laquelle?
[quote name=‘Chaps’ date=’ 10 Apr 2005, 13:57’]Bien le bonjour,
J’entend à peu près totu et n’importe quoi sur la taille du web (et d’internet)?
nombre de pages, nombre de sites, répartition par langues, par domaine ect ect…
Par exemple j’ai ça:
“The Web is the largest document ever written, with more than 4 billion public pages and an additional 550 billion connected documents on call in the “deep” Web (Lyman and Varian 2000). The Web is written in 220 languages (although 78 percent of it is in English) by authors from every nation. Ninety-five percent of Web pages are publicly accessible, a collection 50 times larger than the texts collected in the Library of Congress (LC),…”
C’est bien beau mais où et comment pêchent-ils leurs infos? Y a une institution qui fait des stats “sérieuses” sur la taille d’internet? Si oui laquelle?
Surement, pas google vu leur topologie dites de petites grappes.
Mais, Y a d’autres moteurs qui sont avec un ou deux serveurs mais gros et donc eux peuvent faire des states y a un startup francaise basé a Paris dont je me rappelle plus le nom qui fait truc bien
Comme c moi qui ait lancé le bazard je me dois d’y ajouter ce que j’ai trouvé.
Alors pas de truc miracle mais via Google Scholar j’ai trouvé une étude qui a l’air sérieuse (du moins y a les sources et la méthodoà) , c fait par des types de Berkeley et ça touche la communication en général
dont internet
Sinon y a Nielsen NEt ratings et ClickZ Stats (ex CyberAtlas) qui font des études thématiques et ponctuelles avec une méthodologie expliquée.
Le problème c’est que tout cela est assez flou, même les plus gros moteurs de recherche ne recensent qu’une fraction du web, le reste étant ce qu’on appelle le “web invisible” (ou deep web en anglais). J’ai assisté à une conférence en novembre où l’intervenant principal nous a conseillé une étude intéressante, gavée de tableaux et autres graphiques. C’est en anglais et c’est par ici : http://www.brightplanet.com/technology/deepweb.asp
Sinon, il y a cet excellent site, que je consulte de temps en temps pour me maintenir au courant (on y retrouve d’ailleurs un liens que tu cites) : http://c.asselin.free.fr/french/webenchiffre.htm