Construire un site web gagnant est difficile. Il comporte tellement de composants. Tout le monde veut une vitesse de page, un temps de fonctionnement, un design UX et un marketing exceptionnel pour rentabiliser l’entreprise.
Cependant, de nombreux propriétaires de sites Web oublient de se concentrer sur la sécurité, du point de vue du référencement. Jusqu’à ce qu’ils se fassent pirater, et que les classements chutent…
Mots clés, balises méta, contenus, backlinks. Tous ces termes sont dignes d’intérêt si l’on parle d’optimisation des moteurs de recherche. Mais si vos sites Web sont en panne, empoisonnés ou signalés par Google, ils n’ont aucun effet.
Les spécialistes du marketing omettent souvent la sécurité dans leur stratégie de SEO. Ils ne connaissent peut-être même pas les liens entre la sécurité et le référencement ou ne savent pas par où commencer.
Dans cet article, nous allons voir comment une mauvaise sécurité peut tuer votre référencement et ce que vous devez faire pour y remédier.
Erreurs de crawling
Lorsque nous parlons de trafic de robots, la première chose qui vient à l’esprit des gens est le fichier robots.txt. Robots.txt est une excellente idée pour contrôler votre trafic, mais regardons la vérité en face : même certains bons robots ne respectent pas ce fichier, sans parler des réseaux de robots. Plus de la moitié des visiteurs d’un site Web sont des robots, et la plupart d’entre eux sont des robots malveillants.
Comme les bots malveillants utilisent les mêmes ressources de serveur que les visiteurs légitimes, des vagues plus importantes peuvent complètement surcharger votre site, qui cesse alors de fonctionner.
Vous pouvez le constater par les plaintes des clients ou par des erreurs 404 ou 503 étranges dans votre Search Console pour des pages qui fonctionnent parfaitement.
Erreur 404
Être signalé par Google est l’un des pires scénarios que de nombreux spécialistes du marketing puissent imaginer : des milliers de dollars dépensés en publicité avec des pages de destination indisponibles et des temps d’arrêt permanents. Un gaspillage d’argent… Quel cauchemar !
Mais avez-vous déjà pensé qu’être signalé est la meilleure chose qui puisse arriver en cas de site web infecté ?
Un site Web détruit et une pénalité de classement ne sont pas les pires choses qui puissent arriver. Ces drapeaux douloureux vous aident à reconnaître les points faibles de votre sécurité et à élaborer une solution proactive pour qu’ils ne se reproduisent plus.
Ne pas être signalé alors que votre site est infecté par un logiciel malveillant entraîne des dommages plus importants de la part des pirates et des pénalités plus sévères de la part de Google. Ce n’est certainement pas quelque chose que vous souhaitez.
Selon le rapport de GoDaddy (2018), les moteurs de recherche ne mettent sur liste noire qu’une fraction du nombre total de sites Web infectés par des logiciels malveillants. 90 % d’entre eux ne sont pas signalés ! Donc, si vous êtes signalé, considérez-le comme une aide.
Mais c’est encore mieux si vous ne faites pas de Google votre scanner de logiciels malveillants.
Expérience utilisateur ruinée et sites web défaillants
Cependant, Google ne devrait pas être votre priorité numéro un en matière d’évaluation des risques… vos visiteurs sont moins indulgents.
Lorsque vous faites du référencement, la réactivité et la fiabilité sont les principales attentes à satisfaire. Les visiteurs s’attendent à ce que votre site Web se charge à la vitesse de l’éclair, qu’il soit disponible en permanence, qu’il traite leurs données avec soin et qu’il n’affiche pas de fenêtres publicitaires aléatoires du marché noir à leur intention.
Cependant, les infections n’affectent pas toujours directement les visiteurs. Par exemple, les hackers Black Hat sont des pros lorsqu’il s’agit de cacher des contenus malveillants.
Le spam de référencement, également appelé spamdexing, consiste à manipuler les index de recherche pour y inclure du contenu qu’ils ne trouveraient pas autrement. Ils sont également prêts à faire tout ce qui peut accélérer le classement, même si cela ne dure qu’un temps.
En résumé, l’UX est comme l’oxygène, mais les piratages de WordPress, les attaques DoS, les logiciels malveillants et les contenus de phishing peuvent non seulement ruiner vos SERPs, mais aussi avoir un effet dépressif sur la marque et les revenus de votre entreprise – et c’est ce qui prend le plus de temps à restaurer, si c’est même possible.
Comment atténuer les risques liés au SEO
Vous pouvez atténuer les risques liés au référencement en améliorant la sécurité de votre site Web. Nous vous avons préparé une liste de contrôle qui, selon de nombreux spécialistes du marketing, constitue une excellente base pour le SEO en matière de sécurité.
1. Sécurisez vos sites pour le seo
Utilisez SSL et HSTS en plus ! N’attendez pas qu’ils le demandent, car c’est vous qui subirez les conséquences d’un vol de données. Pensez-y à l’avance. De plus, Google préfère les sites HTTPS aux sites HTTP, donc même une solution gratuite (comme LetsEncrypt) vaut la peine d’être fournie.
2. Maintenez votre logiciel à jour
Mettez à jour tous les plugins, extensions et applications que vous exécutez sur les sites Web. Chaque logiciel obsolète est une faille de sécurité dans votre système. Les sites WordPress, Joomla et Drupal vulnérables sont des cibles faciles pour les pirates.
Il est assez alarmant de constater qu’au moins 67 % des applications Web présentent une vulnérabilité majeure qui pourrait permettre le déploiement de logiciels malveillants. Croyez-nous. Beaucoup sont exposés à plus d’une d’entre elles.
3. Filtrer les bots malveillants
Search Engine Watch attire régulièrement l’attention sur les racleurs de contenu. Si vous découvrez, grâce à vos backlinks ou trackbacks, que votre contenu a été publié sans votre autorisation sur un site de spam, déposez une plainte DMCA auprès de Google.
Cependant, votre meilleure défense consiste généralement à identifier la source de votre trafic malveillant et à bloquer l’accès depuis ces sources.