Les moteurs de recherche pour découvrir des contenus tels que des pages web, images, vidéos… utilisent des programmes appelés ROBOTS ou BOTS pour se frayer un chemin parmi toutes les pages disponibles.
Les robots passent de page en page (ou « crawl » ) en suivant les liens qu’ils les relient entre elles les pages et ils ne s’arrêtent jamais.
VISITE, REVISITE LES PAGES INDÉFINIMENT À LA RECHERCHE DE NOUVEAUX LIENS & CONTENUS À AJOUTER DANS LEUR INDEX
Gigantesque liste de toutes les pages web et leurs contenus trouvés par les robots. Le moteur de recherche utilise cet index comme source d’informations à afficher dans la page de résultat.
Seuls certains contenus trouvés par les robots se retrouvent dans l’index.
On peut choisir de ne pas indexer certains contenus.
L’INDEX DE GOOGLE A PASSÉ LA BARRE DU MILLIARD DE PAGES INDEXÉES EN 2000 ET CELLE DES MILLE MILLIARDS DÈS 2008
Le moteur de recherche va extraire depuis l’index, des pages répondant à la requête saisie par l’utilisateur. Le calcul et le classement se fait en fonction d’une recette maison gardée secrète ou formule mathématique qu’on appelle « algorithme ». Ils peuvent prendre des centaines de critères différents pour déterminer le classement. Le rôle de cet algorithme va être de classer les sites en fonction des recherches des internautes du + au – pertinent.
Ingédients connus : les mots clés d’une une page, liens externes, le degré d’actualité du contenu, HTML…
