Au cours des années 2000, Google a développé des dizaines d’algorithmes pour organiser le classement de ses pages de résultats. Ces programmes sont tout simplement devenus indispensables pour indexer et répertorier les centaines de millions de sites web de la toile. Savoir éviter ces dangers est indispensable.

L’utilité des algorithmes Google

  • Pour faciliter le travail des robots d’indexation de plus en plus performants,
  • Pour améliorer l’expérience utilisateur et offrir des sites de qualité aux internautes
  • Pour mettre en avant les meilleurs sites avec un contenu complet et un bon référencement.

Les programmes peuvent être classés en deux catégories :

  • Les algorithmes qui pénalisent les sites ou les pages qui ne respectent pas les consignes (liens de masse, sur-optimisation des mots-clés, utilisation de backlinks artificiels, etc…)
  • Les algorithmes qui favorisent les sites ou les pages qui ont une caractéristique précise (vitesse de chargement, protocole sécurisé HTTPS, compatibilité mobile…)

Les algorithmes les plus populaires

les-algorithmes-googleGoogle Panda est un algorithme majeur de Google. Il est sorti en 2011 et il évalue la qualité des sites grâce à la technique de machine learning. Il retient essentiellement 2 critères pour juger de la qualité du site : le contenu et le comportement des internautes.

Penguin est sorti en 2012. Cet algo qui fonctionne en temps réel, pénalise les sites qui abusent des techniques de référencement (sur-optimisation). La présence d’une grande quantité de liens artificiels pointant vers le site ou encore l’utilisation trop répétitive de mots-clés sont prises en compte.

« Publicité interstitielle intrusive » est un algo qui détecte l’usage massif de pop-up et bannières publicitaires sur les sites. Il est tout récent (janvier 2017) et risque bien de bouleverser le classement, mais aussi les revenus des blogs qui vivent essentiellement sur la publicité.

Depuis 2015, « Pages satellite » détecte et pénalise les pages du même nom qui ont un contenu faible en qualité et en quantité ou dupliqué.

Pigeon est sorti en juin 2015 et a connu plusieurs améliorations. Il va devenir de plus en plus important, car il va favoriser la recherche locale dans les requêtes. Une version plus actualisée appelée Opossum est plus spécifique au référencement.

Les algorithmes sont étudiés pour améliorer et faciliter la vie des internautes. Les pages de qualité sont mieux placées, mais il ne faut pas oublier qu’elles ont eu recours à des outils Google comme Adwords. Malgré tout, le fait d’avoir un contenu de qualité (un texte informatif unique à valeur ajoutée) reste un critère incontournable pour les robots d’indexation.

Voir aussi :