Panda et Penguin, les algorithmes SEO de Google

Un individu examine un site Web à travers une loupe.

La société Google a mis en place les algorithmes Panda et Penguin, afin de s’assurer de la pertinence des résultats fournis par son moteur de recherche. Ces algorithmes se basent sur des éléments précis pour évaluer la qualité d’un site web et décider de son classement dans les résultats de recherche. Vous devez aussi savoir comment Google traite les requêtes des internautes.

Google Panda pour une bonne qualité du contenu

L’algorithme Google Panda a été mis en service au cours de l’année 2011. Les critères considérés par cet algorithme sont la qualité de l’expérience utilisateur et le contenu du site. Ainsi, les sites dont les articles présentent un contenu dupliqué, des erreurs de syntaxe ou d’orthographe sont sanctionnés par Google. Optimiser le référencement d’un site web demande de l’expérience, une veille régulière dans ce domaine d’activité et du temps. Vous pouvez faire appel à des agences de référencement pour vous venir en aide. Des sanctions similaires attendent ceux qui ne publient pas régulièrement de nouveaux articles ou qui contiennent de la publicité en quantité excessive. Panda s’intéresse également à la mise en page. Les sites sont donc favorisés par l’algorithme quand leur structure est soignée, avec des articles divisés en paragraphes bien aérés, et des sous-titres avec balises adéquates.

Plusieurs propriétaires de sites sanctionnés par Panda se sont plaints auprès de Google. Ils ont, en effet, estimé que leurs sites répondaient aux normes de qualité SEO et que les sanctions qu’ils avaient reçues étaient injustifiées. Des mises à jour correctives de Panda ont, par la suite, été régulièrement déployées sur le web, avec des critères de sélection affinés à chaque nouvelle version. Si, auparavant, Panda ne faisait pas de filtrage en temps réel des sites web, Google a récemment décidé de l’inclure dans l’algorithme principal de son moteur de recherche.

Google Penguin contre le référencement abusif

Au cours de l’année 2012, Google a officiellement présenté l’algorithme Penguin aux professionnels du SEO. Si Panda analyse le contenu interne des sites, Penguin prend en charge de vérifier la qualité des liens qui renvoient vers ceux-ci. Un backlink doit nécessairement être pertinent et provenir d’un article ou d’un site dont la thématique concorde avec celle de l’adresse web vers laquelle il redirige l’internaute. La page web d’origine doit également présenter du contenu écrit qui soit à la fois soigné et intéressant. Si aucun de ces critères n’est respecté, le lien est considéré comme de mauvaise qualité et le site en question est désindexé par Penguin.

Un nombre important de pages web n’ont pas réussi à traverser le filtre de Penguin ; environ 2% des pages web analysées ont ainsi fait l’objet de sanctions. Il s’agissait principalement de sites qui étaient rarement mis à jour, et qui présentaient du contenu de pauvre qualité. Après l’apparition de cet algorithme, l’achat ou l’échange de liens qui n’ont aucun rapport avec un site, sont également devenus des pratiques obsolètes. Les référenceurs ont aussi porté une plus grande attention à la qualité des liens qu’ils génèrent, notamment en prenant soin de rédiger des articles de haute qualité. Il est clair que les sociétés qui ont envie de prospérer doivent expressément gagner en visibilité sur internet.

Notez cette page
×