Vous venez enfin de mettre en place une stratégie concrète pour votre référencement.

Vous avez suivi beaucoup de conseils en ligne mais cela ne suffit pas pour avoir des positions suffisamment hautes et ainsi générer du trafic sur votre site ?

Ce sont des choses qui arrivent très souvent et pour beaucoup de sites. Malgré vos investissements en temps et en effort, la stratégie de référencement mise en place n’est pas payante. Rien à faire, cela ne veut plus bouger.

Je vais vous donner mes conseils pour résoudre cette mauvaise passe et enfin avoir du trafic sur votre site.

Analyser sa stratégie actuelle

Le premier travail à faire est d’abord sur vous : détendez-vous, il y a des solutions efficaces à ce problème.

Maintenant, la deuxième chose à faire est effectivement d’analyser sa stratégie mise en place. Pour cela je vous recommande d’agir en six étapes :

  • Définir votre cible et ses besoins
  • Analyser la stratégie SEO de la concurrence
  • Déterminer les mots-clés de chacune de vos pages
  • Optimiser les pages et le contenu de celles-ci avec les mots-clés
  • Travailler le maillage interne
  • Chercher des opportunités de backlink

Vérifiez bien que votre stratégie SEO est passée par chacune de ces étapes. Et si malgré toutes ces recommandations, vous avez encore des soucis, il y a des méthodes que l’on va analyser dès maintenant.

Revoir ses titres et meta description

Les titres de la description sont les premiers composants d’un résultat de recherche. Ce sont eux qui vont aider le visiteur à prendre la décision de cliquer ou non sur les résultats de recherche pour arriver sur votre site.

Bien sûr, il faudra mettre votre mot-clé dans le titre et la méta description. Ce que je veux surtout, c’est vous aider à avoir du contenu qui va attirer le clic de votre visiteur.

Voici un snippet (résultat de recherche) efficace :

Un snippet efficace et très bien optimisé SEO

Eskimoz est une agence de SEO assez connue dans le domaine. Rien que ce snippet joue en leur faveur. Un titre clair et précis, une URL des plus compréhensibles et une meta description qui donne envie. Pouce bleu !

Faire un titre efficace

Le titre décrit le contenu de votre page, celui-ci se doit donc d’être attractif. Si ce n’est pas le cas, le visiteur passera son chemin. Ce qui, bien sûr, n’est pas souhaitable.

Voici mes 6 conseils pour faire un titre qui donne envie :

  • Utiliser des chiffres et des données (ex : 8 façons de…, les 10 meilleurs outils pour…)
  • Inclure des mots qui cassent les freins à l’action (ex : simple, peu de temps…)
  • Insérer son mot-clé cible
  • Utiliser des mots positifs (ex : meilleur, ultime, top …)
  • Parler de sujets qui intéressent les gens
  • Faire du contenu original (cela semble évident mais ne copiez pas votre concurrence)

Cela paraît être bateau mais c’est très important de donner envie aux internautes de cliquer. Pour plus de détails, je vous invite à aller sur l’article où je parle de comment faire un titre optimisé pour le référencement naturel, cela complètera ces conseils.

Faire une méta description efficace

La méta description n’a aucun effet direct sur votre référencement naturel. Vous pouvez mettre ce que vous voulez dedans, vous aurez toujours le même positionnement.

En revanche cela ne veut pas dire qu’elle est inutile. Elle a des impacts indirects sur votre référencement naturel.

Plus les internautes cliqueront sur vos résultats de recherche, plus le taux de clics sera élevé. Le taux de clics est bien sûr un critère de positionnement.

C’est pourquoi il ne faut pas négliger la méta description et en avoir une qui soit attractive. Pour cela, je vous montre mes 6 conseils :

  • Décrire le contenu de la page
  • Faire une méta description entre 130 et 156 caractères
  • Utiliser des verbes tournés vers l’action (ex : découvrez, cliquez…)
  • Utiliser les bons mots (mots clés)
  • Fournir une solution ou un bénéfice
  • Ne pas les dupliquer

Ces conseils vont vous permettre de faire une bonne méta description adaptée en référencement naturel.

Optimiser le temps de chargement

Vous êtes prêt à passer une commande sur un site mais chaque page met 20 secondes à charger ? Personnellement, j’aime plutôt quand c’est fluide et que tout répond du tac au tac !

En plus, Google veut que votre site charge rapidement. Il mettra ainsi un bonus assez important si c’est le cas. À défaut, vous serez vite pénalisé.

Pour tester le temps de chargement de votre site, je vous invite à vous rendre sur un site de test de performance. Si vos notes sont supérieures à 90 % c’est une bonne chose. En dessous, je vous conseille d’agir et pour cela, voici quelques solutions.

Optimiser votre code et le cache

Une page se doit de charger rapidement. Pour cela il faut réduire le poids de votre page et le nombre de requêtes http. Pour faire simple, votre navigateur demande au serveur d’afficher la page et pour ce faire, il y a un nombre de requêtes à faire : plus il y en a, plus c’est long. Voici les 3 actions importantes à mettre en place :

  • Un système de cache serveur et navigateur
  • De quoi compresser votre code
  • Et aussi la minification de votre code

Si vous êtes sur un CMS, comme par exemple WordPress, je vous invite à utiliser « Fastest cache », gratuit et qui s’occupe de ces trois tâches. Sinon, le must c’est WP-rocket qui coûte 39€. Pour un site professionnel, je vous le recommande fortement.

Pour les autres je vous invite à vous rapprocher d’un développeur, la mise en place est plus complexe que quelques clics comme le demande les plug-ins.

Optimiser le poids de vos images

Les images représentent ce qu’il y a de plus lourd dans vos pages. Si vous utilisez un appareil photo reflex et que vous mettez en ligne directement vos images telles quelles, vous n’allez pas vous en sortir.

Une image sortie d’un appareil photo peut faire jusqu’à 10 Mo, ce qui est énorme. Je vous recommande de ne pas dépasser 2 Mo sur votre page. Si vous avez un article très long avec beaucoup d’images non optimisées, on ne pourra pas être en dessous des 2 Mo.

Dans tous les cas, optimisez le plus possible vos images.

Optimisez vos images sur WordPress avec ShortPixel

J’ai découvert ce plug-in récemment. Il est très simple d’utilisation et fait un très bon travail, avec une ergonomie très simple d’utilisation. Je me devais de vous en parler.

interface de l'excellent plugin pour optimiser le poids de ses images Short pixel

Il vous suffit de cliquer sur le degré de compression que vous souhaitez et d’aller dans l’onglet médias pour lancer la compression de l’ensemble de vos images.

Lors de l’optimisation, vous avez une page qui vous montre avant et après la compression. Je gagne, selon le logiciel, 65 % de place après compression de mes images. Ce qui n’est pas mal du tout :

la page de compression de Short Pixel

Vous disposez de 100 images à compresser par mois avec la version gratuite. Pour ma part, je dispose de la version à 10$ qui me permet de compresser 10 000 images.

Voici le site de Short Pixel pour télécharger le plugin (Lien affilié qui nous fait gagner 100 images supplémentaires chacun)

Pour les autres

Il y a un site très sympa à utiliser qui s’appelle compressjpeg qui s’occupe de compresser vos images par 20 (gain de temps) :

Site de compressjpeg qui compresse 20 images à la fois

Si vous voulez changer le format et compresser des gifs ou bien des png en plus du jpeg, vous pouvez utiliser Compressor qui fera un très bon travail mais qui le fera image par image :

Le site compressor.io qui compresse efficacement des images

Passer en HTTPS

Google, dans sa quête perpétuelle de fournir la meilleure expérience possible à ses utilisateurs, souhaite que les sites passent le plus possible sur le protocole HTTPS.

À la base, un site est d’office en http (HyperText Transfer Protocol). C’est le protocole qui permet au navigateur de communiquer avec le serveur pour afficher la page web demandée.

Oui, mais le problème à cela, c’est que des personnes mal intentionnées peuvent récupérer les données transmises et cela devient gênant lorsque ces données sont sensibles (ex : données bancaires).

De plus, votre site ne se verra pas avoir le cadenas vert qui montre à l’internaute que la connexion est sécurisée :

Image qui montre la différence entre un site sécurisé et un autre qui ne l'est pas sur Chrome

Vous avez même des sites qui sont certifiés « sécurisé » comme celui de la FNAC :Un certificat SSL pour la fnac qui est gage de sureté du site

Pour éviter tout problème, on va sécuriser le protocole HTTP et le faire passer en HTTPS. D’ailleurs, Google accorde un léger bonus dans les résultats de recherches aux sites qui sont passé au protocole HTTPS.

Selon une étude de Brian Dean, les sites avec le protocole HTTPS bénéficient d’un léger plus dans les résultats de recherche :

Etude de Brian dean faisant la corélation entre HTTPS et positionnement dans les serps

Ce n’est pas un avantage énorme mais une fois que votre site sera passé en HTTPS, vous serez tranquille. Ce n’est pas qu’un léger bonus SEO, c’est aussi un point supplémentaire quant à la confiance accordée à votre site par les visiteurs. Voici un article très complet pour passer votre site en HTTPS de la fabrique du net.

Passer en HTTP2

De base, votre site est en HTTP1.1 (sauf manipulation particulière faite par votre hébergeur), c’est un protocole qui date de 1997 : oui 20 ans, ça date un peu.

Il est simplement là pour vous permettre d’augmenter le temps de chargement de votre site et par conséquent vous donner un Boost SEO.

Le protocole HTTP2 date lui de fin 2014, ce qui est beaucoup plus jeune et certainement plus performant quand on voit à quelle vitesse va la technologie. Mais, les suppositions que je fais ne sont pas suffisantes, voyez vous-même avec l’image ci-dessous :

Image qui montre les différences entre Http1.1 et http2

SI vous êtes intéressé, sachez qu’il faut d’abord avoir son site en HTTPS. Le HTTP2 supporte mieux le HTTPS. Une fois que c’est mis en place, je vous invite à vous rapprocher de votre hébergeur et lui demander comment faire.

Optimiser le passage des robots et l’indexation

Il faut savoir qu’il y a plus d’un milliard de site web dans le monde et Google se doit d’analyser tout cela. La tâche est colossale ! Si vous pouvez donner un petit coup de main à Google, il saura vous remercier. Pour cela, il faut lui communiquer les pages que vous voulez indexer et celles que vous ne voulez pas indexer.

Le fichier Sitemap.xml

Ce fichier au nom barbare a comme vocation de dire à Google ce que vous voulez mettre dans ses index.

Le but de ce dernier est de donner une carte de votre site à Google. Vous allez simplement donner chacune des Urls qui sont importantes.

Un Sitemap présenté sous la forme de plan d'une maison

Vous pouvez utiliser le site xml-sitemaps.com pour générer ce fichier très rapidement ou bien Yoast si vous utilisez WordPress.

Si vous avez généré le fichier par le site, je vous invite à l’insérer dans votre hébergement à la racine via FTP pour y donner accès à l’adresse www.monsite.fr/sitemap.xml par exemple. Pour ceux sur WordPress, armé de yoast, ce n’est pas nécessaire.

Une fois généré, ce fichier devra être soumis à Google search console.

Pour plus de renseignements, j’ai déjà fait un article sur les sitemaps XML.

Le fichier robots.txt

A l’inverse du sitemap XML, le fichier robots.txt est là pour dire à Google quelles pages vous ne voulez pas voir dans les index de ce dernier.

Mais pourquoi ne souhaiterions-nous pas indexer chacune de nos pages ? il y a plusieurs raisons possibles que voici :

  • Des pages dont le contenu n’est pas intéressant pour le lecteur (ex : mentions légales, page de remerciement suite à une action…)
  • Éviter le contenu dupliqué entre certaines pages. Par exemple la version imprimable de son site
  • Des fichiers PDF qui auraient le même contenu que les pages de votre site
  • Des images dans Google image
  • Des pages avec un contenu de faible qualité
  • Des fichiers de construction du site comme avec WordPress par exemple.

Bref les possibilités sont nombreuses.

Pour faire ce fichier, il vous faudra ouvrir un fichier en .txt comme par exemple avec bloc-note sous Windows ou text-edit sous Mac et le nommer rigoureusement « robots.txt ». Aucune autre orthographe n’est possible sous peine de ne pas reconnaitre le fichier et de passer à la suite.

Il faudra y inclure les fichiers de construction de votre site ou bien les pages que vous ne voulez pas voir. Voici un exemple de fichier robots.txt :

un exemple de fichier robots.txt pour un site WordPress

Comme vous pouvez le voir, la première ligne est là pour dire qu’on autorise tous les robots à passer sur notre site.

Les autres lignes sont là pour ne pas autoriser les robots à crawler les fichiers nommés.

Sachez cependant qu’un fichier robots.txt fait de cette manière ne va pas empêcher le robot d’indexer votre site, cela va simplement empêcher les visites du robot. Un simple lien vers vos pages permet de rendre votre fichier robots.txt inutile.

Mon conseil est donc d’utiliser le robots.txt pour ne pas indexer vos fichiers de création et d’utiliser la balise meta robots pour ne pas indexer des pages particulières :

<head>

<meta name= « robots » content=  « noindex, nofollow »/>

</head>

Noindex sert à demander à Google de ne pas indexer et Nofollow va demander à google de ne pas suivre les liens présents sur la page. À vous de voir ce que vous souhaitez mettre comme instruction.

Pour ceux qui sont sur WordPress avec Yoast, il y a ces balises dans l’encart en cliquant sur la roue dentée :

Image du carré de réglage de Yoast pour mettre en place la balise meta robots

SI vous souhaitez plus d’informations, je vous invite à lire mon article sur le robots.txt.

Traquer le contenu dupliqué

Le contenu dupliqué est un fléau pour le référencement de vos pages. Il n’est pas forcément facile de le repérer et il peut saboter votre SEO de l’intérieur.

C’est pourquoi je vous invite à faire attention et éviter d’avoir trop de contenu dupliqué entre vos pages. Quelques lignes sur un texte de plusieurs milliers ce n’est pas grave mais si c’est une majorité, la ça devient plus sérieux.

Ça tombe plutôt bien car j’ai découvert tout récemment un site excellent pour traquer votre contenu dupliqué et bien d’autres choses : Siteliner

Il vous propose plein de rapports détaillés, c’est vraiment un excellent outil :

Un excellent outil pour déceler le contenu dupliqué et pleisn d'autre choses

Vous insérez une URL et c’est parti !

Si jamais vous avez des pages avec du contenu dupliqué, il faudra utiliser la balise rel= « canonical » dans la page en question :

<link rel= «canonical» href=«http://www.monsite/page-origine/ »/>

La balise va donner un lien vers celle qui a le contenu d’origine et cela vous évitera d’avoir des pénalités.

Encore une fois, la chose est simplifiée si vous êtes sur WordPress. En effet, vous avez au même emplacement que pour les balises meta robots, un endroit où ajouter l’URL canonique (l’URL d’origine).

Conclusion

Si vos résultats ne bougent pas, ne vous en faites pas. Détendez-vous et une fois ces actions mises en place, vous devriez voir les premiers résultats sous quelques jours.

N’oubliez pas de mettre en place une stratégie de SEO concrète et de vous y tenir à chacun de vos articles.

Le SEO est un sport qui demande de la patience. SI vous souhaitez avoir une stratégie complète pour WordPress, je vous propose une formation au référencement naturel étape par étape ou je filme mon écran et je vous montre toutes les bonnes méthodes.

J’espère que cet article vous plaira, à bientôt pour le prochain.

Share This