Google Panda

Qu’est-ce que la pénalité Google Panda ?

Depuis 2011, Google Panda cherche à simplifier l’accès à l’information virtuelle : Google sanctionne les sites internet sans intérêt avéré. C’est le premier filtre connu à sanctionner des sites via des pénalités Google. Son classement par pertinence ébranle toutes les anciennes stratégies d’optimisation de positionnement sur le moteur de recherche. Google favorise ainsi le référencement naturel des pages web aux contenus de qualité pour la plus grande satisfaction des internautes.

Google Panda fait la chasse aux impostures

L’algorithme Panda cible principalement les « fermes de contenus » qui multiplient les thèmes pour accéder à plusieurs requêtes, sans chercher à répondre aux attentes des visiteurs. Selon Amit Singhal et Matt Cutts, la qualité de service pour les utilisateurs du moteur de recherche reste l’objectif numéro 1 de cette traque sur internet. La pénalité Panda s’applique donc aux sites qui cherchent à optimiser leur trafic malgré leur très faible qualité. Les résultats sont intransigeants : la visibilité se voit sanctionnée. Malheureusement, la qualité d’un site ne suffit pas toujours à échapper à la pénalité Panda : par exemple, les comparateurs de prix, pourtant utiles, les annuaires ou les portails d’actualité, comme les forums de discussions ne sont plus admis dans le cercle Google. Une nouvelle mise à jour apportera peut-être une solution. En attendant, il reste toujours possible d’éviter la pénalité en comprenant les facteurs de pénalisation de Google Panda. Pour cela, il suffit souvent de respecter quelques règles de qualité.

Chaque site doit légitimer sa visibilité avant de l’optimiser

Google Panda, dans son avant dernière version 4.1, met au tableau d’honneur les sites de qualité qui proposent un réel contenu ainsi que des informations pratiques. Les Rich Snippets présentent alors un intérêt non négligeable : ces extraits donnent les informations nécessaires à l’internaute et au moteur de recherche pour évaluer le contenu d’une page. Mais le site doit avant tout soigner son architecture ainsi que ses articles. La pénalité Panda apprécie les textes sans faute d’orthographe ou de grammaire et privilégie donc une rédaction facile à lire. L’algorithme réclame des informations fiables mais, surtout, complètes. Un contrôle qualité du site semble alors incontournable, l’indexation des pages importantes avec le robots.txt est capitale. Ainsi, les petits sites spécialisés ont toute leur chance sur la toile, à partir du moment où ils s’engagent dans une démarche qualitative. La classification des sites par pertinence lutte contre le plagiat et l’abus de mots-clés : les articles retenus répondent aux questions des internautes avec précision.

L’intérêt de l’internaute comme ligne de conduite

La pénalité Panda tient compte de l’avis des clients pour filtrer les contenus. Les pages non commentées ou non visitées doivent êtres retravaillées : elles ne suscitent aucun intérêt puisqu’elles ne provoquent aucune interaction. Les réseaux sociaux permettent à Google d’évaluer le potentiel d’un site, d’un produit ou d’un sujet. Les personnes inscrites sur Facebook, Twitter et Google + recommandent leurs trouvailles, indiquant, par là même, leur satisfaction par rapport à leurs besoins. Un bon référencement passe donc par l’anticipation d’un partage de contenu directement depuis le site.

Enfin, la modernisation du système bannit les espaces publicitaires envahissants et intempestifs, pour le confort de l’internaute qui accède aisément à l’information recherchée. De même pour les liens abusifs. Le visiteur ne doit pas se perdre sur internet mais trouver une réponse à sa requête. Les liens extérieurs qui guident la recherche vers votre site apportent une plus-value dont il ne faut toutefois pas abuser, sous peine de tomber dans la pénalité Google Pingouin.

Pour conclure, Panda offre des résultats naturels plus utiles pour les internautes. La classification par la pertinence des ressources fluidifie les recherches sur internet. Le filtre Google Panda pénalise l’absence de qualité d’un contenu, conséquence de stratégies abusives pour optimiser son trafic.

Les principales dates du filtre Google Panda

  • Panda 1.0 (24 février 2011) : Ce fut le premier test de la mise à jour qui s’est seulement opéré aux USA avec un pourcentage de 11,8 % de requêtes affectées.
  • Panda 2.0 (11 avril 2011) : Google déploie le filtre sur les flexions nominales anglophones du moteur de recherche. Constat, au moins 2 % des requêtes ont été touchées.
  • Panda 2.4 (12 août 2011) : Des pays comme la France, c’est-à-dire non anglophones feront l’expérience de l’algorithme. Seuls le chinois, le japonais et le coréen seront exemptés de cette nouvelle version. On enregistre cependant, 6,9 % de requêtes impactées.
  • Panda 3.0 (19 octobre 2011) : Environs 2% des requêtes impactées.
  • Panda 3.8 à 3.9.1 (19 juin au 20 août 2012) : Avec le lancement de 4 versions du filtre dans un intervalle de 3 mois, les actualisations se sont forcément faites plus régulières. Les requêtes touchées s’élevant souvent à plus d’1 %.
  • Panda 3.9.3 (27 septembre 2012) : 0,5 % des requêtes exécutées en français se voient affectées pendant que 2,4 % de celles effectuées en anglais le sont.
  • En mars 2013, Google Panda fait désormais partie intégrante de l’algorithme général de Google.
  • Panda 4.1 (26 septembre 2014)
  • Panda 4.2 (Juin 2015) : La mise à jour devrait impacter 2 à 3% de l’ensemble des résultats de recherche.
Demander un devis gratuit

Poser une question

Commentaires (2)

  • Avatar
    Mika

    Est-ce qu’un moteur de recherche via un algorithme est en mesure de distinguer un bon contenu d’un mauvais contenu ?
    Autant on peut concevoir que Google puisse identifier les notoriétés trafiquées, avec les backlinks obtenus très rapidement sur des sources parfois suspectes, autant j’ai dû mal à imaginer qu’un outil informatique puisse dire qu’un premier texte a été bien écrit et qu’un autre n’est pas assez qualitatif pour apporter quelque chose à l’internaute.
    D’ailleurs, on tombe quelque fois sur des résultats contenant du contenu qui a été assemblé automatiquement par un logiciel, et qui n’est pas compréhensible. Mais ces contenus sont pourtant toujours indexés et parfois même dans les premiers résultats de Google.

    • Mathieu - Experts référencement
      Mathieu – Experts référencement

      @Mika : C’est une excellente question car beaucoup de personnes sans dans le flou sur l’interprétation du contenu par Google.

      Il faut bien distinguer deux choses.

      Premièrement Google utilise des algorithmes pour déterminer si un texte est intéressant et pertinent sur un sujet donné. Pour ça il compare de très nombreux textes et pour un sujet donné il va s’intéresser aux mots qui reviennent souvent, aux mots importants. Ces mots là sont-ils présent dans le texte ? Ou ? A quelle fréquence ?

      Deuxièmement, et c’est là le plus important, Google détermine principalement la qualité d’un texte non pas grâce au contenu en lui même, mais grâce à l’environnement de ce contenu. Les robots restent en fait très limités (des fois volontairement pour ne pas mettre à la poubelle 90% du contenu web qui n’est que redite). Google va donc s’intéresser au contexte du contenu à analyser : comment le contenu est mis en forme ? qu’est-ce qui vient supporter le contenu (images, vidéos) ? quelles sont les pages complémentaires disponibles sur ce contenu ? quelle est la thématique du site ? son autorité ? ce contenu est il relayé sur d’autres sites internet ? les gens passent-ils du temps sur cette page ? etc…

      Voilà comment Google distingue un bon contenu d’un mauvais contenu (notamment avec son filtre Panda). Si vous tombez sur un mauvais texte bien positionné, ce dernier utilise peut être tout de même des mots clés pertinents et est sans doute supporté par une stratégie netlinking efficace. A l’inverse si vous avez un excellent texte mal positionné, ce dernier possède certainement un environnement mal optimisé.