Le référencement est toujours aussi sale – Gratuit : Audit complet de votre site internet

Avant de commencer !

scam-shady-dirty-liar-ss-1920
Share on facebook
Share on twitter
Share on pinterest

scam-shady-dirty-liar-ss-1920

Même si l’industrie du SEO veut grandir et se débarrasser de la réputation loufoque qu’elle avait dans le passé, il semble que beaucoup ne veulent pas changer et continuent de jeter une ombre sur l’industrie. Pour chaque entreprise qui fait les choses correctement, il semble qu’il y en ait beaucoup plus qui n’ont pas mis à jour leurs pratiques ou qui souhaitent toujours prendre des raccourcis.

Je sais que ce n’est pas octobre et ce n’est pas le moment pour Halloween, mais je prépare déjà mon costume et j’ai été inspiré pour écrire ceci. Ce sont toutes de vraies histoires d’horreur SEO que j’ai vues au cours des deux dernières années. Il y a des pratiques obsolètes, des erreurs et des trucs très louches qui se poursuivent encore dans notre industrie.

Je suis d’accord avec les erreurs, mais beaucoup de ces histoires impliquent des entreprises qui ne mettent jamais à jour leurs pratiques ou qui font intentionnellement des choses qui donnent à tous les SEO une mauvaise réputation. Il existe de nombreuses grandes entreprises, mais il semble que pour toutes les bonnes, il y a encore quelques mauvaises pommes.

Pratiques de référencement obsolètes

Croyez-le ou non, je vois toujours des cas de bourrage de mots clés et même de texte caché.

Les titres ont l’air terribles lors du rembourrage; J’ai vu le même terme plusieurs fois ou chaque ville connue de l’homme dans la balise de titre. J’ai récemment rencontré un titre de page d’accueil de plus de 800 caractères, avec presque toutes les villes de la région!

Le texte masqué est également un problème étonnamment courant, où le contenu du site Web (texte, liens internes, etc.) est à peine lisible ou parfois intentionnellement caché. Ce ne sont pas non plus des sites lancés il y a des années – certains d’entre eux ont moins d’un an.

Je vois également plus de sites Web qui utilisent exactement le même contenu de page sur plusieurs pages avec uniquement le nom de la ville échangé. Ces pages sont devenues si répandues que j’ai du mal à dire aux clients de ne pas le faire, mais bien sûr, je le déconseille. (S’ils choisissent de réutiliser le contenu de la page, je leur demande d’ajouter quelque chose de plus qui soit pertinent et utile.) Je vois même des pages qui utilisent évidemment du texte filé qui se classent bien.

Le spam de lien est le pire. Je vois de nombreux sites qui utilisent des services de communiqués de presse qui vont sur des sites Web d’actualités locaux. Je vois beaucoup d’annuaires généraux et de sites Web d’articles dans des profils qui ont été récemment ajoutés. Je vois toujours beaucoup de spam web 2.0 et vidéo. Malheureusement, je vois beaucoup d’empreintes évidentes de programmes comme ScrapeBox, XRumer, SEnuke et GSA SER. Parfois, les sites Web s’en tirent avec le spam, mais d’autres fois, les entreprises sont venues me voir avec une pénalité, et il est évident d’après le profil de backlink quelle est la cause.

Le local est aussi une blague de nos jours. Les listes locales sont tellement remplies de spam et de fausses critiques que c’est écoeurant, et j’ai atteint le point où je ne fais vraiment plus confiance aux critiques. Je vois des personnes qui remplissent des noms de listes Google My Business, en ajoutant des noms commerciaux alternatifs riches en mots clés, en utilisant un site Web de haut rang ou un profil faisant autorité au lieu de leur site Web, en utilisant les emplacements des magasins UPS, les bureaux Regus ou les espaces de co-travail pour l’adresse, avoir plusieurs listes (ou même plusieurs sites Web) pour la même entreprise, et bien plus encore. C’est à nouveau comme le Far West.

Pour ceux qui pourraient l’avoir manqué, je vous recommande fortement de consulter le « Guide ultime de lutte contre le spam sur Google Maps » de Joy Hawkins et amusez-vous à rapporter les choses que vous avez vues.

Erreurs

Je vois beaucoup de sites Web bloquer les robots d’exploration ces jours-ci. Il semble que presque chaque recherche ait au moins un résultat qui dit: « Une description de ce résultat n’est pas disponible en raison du fichier robots.txt de ce site. »

Bien sûr, cela peut être causé par une balise noindex, ainsi que par robots.txt. Que les gens retirent des sites Web du développement, cliquent accidentellement sur de mauvaises cases, migrent des sites Web ou pour toute autre raison, cela semble être négligé beaucoup plus qu’il ne devrait et c’est une erreur assez courante.

Moins courants, mais de plus en plus populaires, il existe divers cadres JavaScript comme Angular et React où aucun contenu n’est rendu ou indexé. Pour quiconque dont la société commence à utiliser ces cadres, je recommande fortement de lire «Nous avons testé comment Googlebot analyse Javascript et voici ce que nous avons appris» d’Adam Audette et «Que faire lorsque Google ne peut pas comprendre votre JavaScript», de Jody O’Donnell. ainsi que les guides AngularJS et React de Builtvisible.

Une de mes bêtes noires, c’est quand une entreprise va repenser un site Web sans faire de redirection. J’ai vu des chutes de trafic catastrophiques à la suite de cela. Je donne le bénéfice du doute qu’il s’agit d’une erreur, mais cela ne fait probablement pas partie du processus d’une entreprise ou quelque chose qu’ils ont supprimé parce que cela prend du temps et qu’ils étaient dans un délai. Je vois également beaucoup de redirections mal effectuées lors du passage de HTTP à HTTPS, y compris des chaînes de redirection et 302 au lieu de 301.

Bien que ce ne soit pas toujours la faute d’une entreprise de référencement, j’ai vu des noms de domaine expirer ou des domaines plus anciens ont chuté, ce qui a eu des impacts importants sur diverses entreprises. Ce n’est pas si courant que ça, heureusement, mais ça peut être douloureux quand ça arrive.

SEO Horror Stories

Des trucs SEO louches

  • Des tactiques de vente louches. Je vois toujours des entreprises déformer leur statut de partenaire Google comme quelque chose de plus que pour la recherche payante. J’ai parlé à de nombreux propriétaires de petites entreprises qui ont signé simplement parce que le vendeur donnait l’impression d’avoir une connexion interne avec Google. Je suis également déçu par les entreprises qui essaient de vendre des packages avant même de parler à un client ou d’essayer de vendre un package au lieu d’un plan personnalisé après leur avoir parlé de leur position actuelle et de leurs défis.
  • Des contrats ridicules. J’ai eu des clients qui ont dû aller en justice parce que leurs contrats stipulaient que le fournisseur de référencement possédait tout – pas seulement le contenu ou la conception, mais même le nom de domaine. Si j’avais un conseil à donner aux propriétaires d’entreprise, c’est pour vous assurer que vous contrôlez tous vos propres comptes et propriétés de marque.
  • Systèmes CMS propriétaires. Certaines entreprises font qu’il est presque impossible de les quitter en utilisant leurs propres systèmes CMS locaux sans aucune option d’exportation et aucun accès à la base de données. C’est là que le grattage est utile. Certains d’entre eux ont de graves problèmes de référencement, et j’ai même vu où tous les sites Web étaient également dupliqués et indexés en tant que sous-domaine sur le site Web de la société de référencement.
  • Ne pas retourner les identifiants de compte. Je vois cela souvent où les entreprises retiendront les informations de connexion, les détails de la campagne ou même des comptes entiers. Je déteste particulièrement quand un client ne contrôle pas ses analyses Web ou ses comptes PPC, et ils doivent être configurés à partir de zéro sans historique. Souvent, les agences affirment que leurs méthodes sont propriétaires, mais c’est tout simplement loufoque. Si vous ne l’avez pas déjà vérifié, lisez ma «Liste de contrôle pour la transition vers une nouvelle agence numérique».
  • Réseaux de blogs privés (PBN), liens payants et spam. Je suis étonné de voir encore tellement ce genre de choses. Les gens veulent vraiment prendre des raccourcis, et les sociétés de référencement vendent toujours des gens facilement (et risqué) gagne. Je ne peux pas vous dire le nombre de personnes que j’ai entendues qualifier les PBN de chapeau blanc au cours des derniers mois; il semble que les entreprises n’expliquent pas du tout les risques encourus.
  • Réseaux de liaison. J’ai vu des pages où tous les clients d’une société de référencement sont liés à tous les autres clients. J’ai vu des pages où l’entreprise utilisait des pages sponsorisées ou partenaires pour relier des sites clients. J’aimerais pouvoir dire que je n’ai vu cela qu’une ou deux fois, mais malheureusement je le vois souvent (en particulier avec les sociétés de référencement spécifiques à un créneau).
  • Suppression de liens. J’ai eu un client dont le classement et le trafic ont chuté au cours des deux premiers mois de travail avec moi. Quand je l’ai examiné, j’ai découvert que son ancienne société de référencement avait en fait fait l’effort de supprimer tout les liens qu’il avait construits l’année dernière! Un autre exemple que j’ai rencontré à plusieurs reprises est celui où les entreprises créent des liens vers un site Web secondaire, et non vers le site Web principal. Ces sites Web secondaires sont redirigés vers le site Web principal – et lorsqu’un client part, le site Web est redirigé vers quelqu’un d’autre, ce qui prend effectivement la valeur créée avec eux.
  • Ajout de noindex. Bien que cela puisse être classé comme une erreur, dans ce cas, je veux dire les cas où une balise noindex est considérée comme un acte malveillant. Je l’ai vu lorsque je ne changeais même pas d’hôte, avant de remettre un site Web, par exemple. J’ai également vu des fonctions sournoises qui ajouteraient la balise spécifiquement pour Googlebot, et même des options cachées derrière un tableau de bord personnalisé protégé par mot de passe pour le thème. Une fois, une entreprise a décidé de changer d’adresse à un concurrent dans Google Search Console et a redirigé le site Web vers le concurrent. Ils ont refusé de remettre les informations pour que cela soit corrigé en temps opportun.
  • Création d’un autre site Web sur un domaine différent. Si un site Web est bon, alors deux ou trois doivent être meilleurs, non? Je déteste les fournisseurs qui font cela, et même certaines grandes entreprises le font. Pourquoi prendre la peine de travailler sur le site Web principal alors que vous pouvez le faire sur un site Web que vous contrôlez, non? C’est encore pire lorsqu’ils utilisent un numéro de suivi des appels au lieu du numéro réel et détournent également les fiches Google My Business. J’ai eu les pires maux de tête après que quelques entreprises aient fait cela, puis j’ai utilisé un service comme Yext qui a verrouillé les listes NAP pour l’année suivante.
  • Étiquettes canoniques. J’ai vu tellement de choses louches avec des balises canoniques que ça fait peur. Les sites Web sont copiés à partir d’un autre site sans changer le canonique, ou j’ai vu l’ensemble canonique comme la société de conception Web. Certaines des choses les plus frustrantes que j’ai vues sont lorsque les entreprises publient les mêmes blogs avec le canonique sur leur site Web, ou lorsque le canonique pointe vers le site Web du client «préféré» d’une entreprise dans une zone. J’ai vu des canoniques définis pour que chaque page soit canonisée sur la page d’accueil. J’ai même eu des entreprises canoniques d’un site Web entier à un autre site Web lors de la remise, pensant qu’il ne serait pas remarqué ou pour stimuler un de leurs autres clients, j’en suis sûr.
  • Réutiliser le contenu. Je vois cela avec de nombreux fournisseurs de niche de référencement. Les pages de service et les blogs seront utilisés sur des milliers et parfois des dizaines de milliers de sites Web. Je suppose qu’il y a tellement de façons d’écrire sur la même chose, donc ils n’ont même pas pris la peine. Le pire que j’ai vu était un dentiste dont les pages de service ont été utilisées sur plus de 30 000 autres pages Web.
  • Commentaires. J’ai vu des entreprises abuser des identifiants de compte donnés de bonne foi pour se laisser un avis à partir du compte Gmail d’un client. J’ai vu des entreprises créer de faux avis pour leurs clients. J’ai vu des entreprises annoter de fausses étoiles sur les pages afin qu’elles apparaissent dans les SERP. Astuce: si vous les voyez, veuillez les signaler: https://support.google.com/webmasters/contact/rich_snippets_spam?hl=en
  • Restauration d’un site Web. Une fois, une entreprise a chargé une sauvegarde d’un site Web à partir d’un moment où elle n’avait effectué aucun travail sur la page. Bien sûr, ils ont dit que c’était un « problème » et qu’ils n’avaient pas de sauvegarde récente. La sauvegarde qu’ils ont chargée remonte à plus d’un an.
  • Poursuites menaçantes. L’une des histoires que j’ai trouvées les plus intéressantes est celle où une entreprise a créé un nom de société comme une correspondance exacte de l’un des termes de recherche les plus populaires. Cette société a en fait envoyé des lettres à des sites Web de premier plan menaçant de poursuites si ces autres sociétés ciblaient leur «marque». C’était triste à voir, mais bon nombre de ces entreprises ont en fait demandé à leurs employés de supprimer les mentions de cette phrase.
  • Ne pas configurer le suivi des conversions. Bien que cela puisse être considéré comme une erreur, si cela est fait pour plusieurs entreprises et que des rapports montrent que la campagne a toujours l’air bien ou est assez vague pour ne rien dire, je considère cela comme loufoque. Surtout quand les gens paient pour vos services, que ce soit le contenu, le référencement, les réseaux sociaux ou le PPC, si vous ne suivez pas, vous vous trompez.
  • 301 un site pénalisé. Je l’ai vu plusieurs fois maintenant, mis en œuvre de différentes manières. J’ai vu des sites Web pénalisés redirigés vers un concurrent, bien sûr, mais je les ai également vus redirigés vers des sites Web faisant plus autorité. Il y a aussi un exemple que je partage depuis quelques années d’une entreprise de dégâts des eaux classant différents sites Web jusqu’à ce qu’ils soient pénalisés, puis redirigeant vers un document Google public contenant leurs informations. Google Doc s’est classé premier au cours des dernières années en raison de cette tactique, et ils ont généralement au moins un ou deux autres sites Web dans le top 10.

TL; DR

Il y a encore beaucoup de choses louches qui se passent dans notre industrie, et je ne pense pas que nous ayons très bien nettoyé notre numéro. Gardez à l’esprit que je ne suis qu’un seul gars et j’ai personnellement vu tout ce qui précède au cours des deux dernières années.

Ce ne sont pas seulement les entreprises locales ou de niche qui font de mauvaises choses; en fait, les entreprises et les grands sites Web peuvent s’en tirer avec un meurtre par rapport aux petits sites. Cela encourage certaines des pires pratiques que j’ai jamais vues, et certaines de ces entreprises font pratiquement tout ce que les moteurs de recherche leur disent de ne pas faire.

Partagez avec moi sur les réseaux sociaux certaines de vos propres histoires d’horreur; Je serais ravi d’entendre parler des trucs fous que vous avez vus.


Les opinions exprimées dans cet article sont celles de l’auteur invité et pas nécessairement Search Engine Land. Les auteurs sont listés ici.


A propos de l’auteur

Patrick Stox est conseiller produit, SEO technique et ambassadeur de marque chez Ahrefs. Il est organisateur du Raleigh SEO Meetup, Raleigh SEO Conference, Beer & SEO Meetup, Findability Conference et modérateur sur / r / TechSEO.

Inscris-toi à notre newsletter !

Partage cet article avec tes amis !

Share on facebook
Share on google
Share on twitter
Share on linkedin