Alors que j’étais sur un rouleau avec constamment mise à jour de mes blogs sur mon site, j’ai trouvé déroutant quant à pourquoi le nombre de visiteurs sur mon site n’augmente pas. Divers sites Web de Wish to The Outline gagner un nombre régulier de visiteurs chaque jour et ils ont été mise à jour aussi souvent que le mien a été.
J’ai vérifié les numéros de mon propre site et j’ai découvert que mon classement de recherche n’a pas augmenté non plus.
J’ai étudié les raisons pour lesquelles cela m’arrive, et je suis tombé sur cette vidéo:
Après en savoir plus à ce sujet et d’appliquer ce que j’ai appris sur l’audit SEO, cela a aidé mon site Web à devenir plus visible sur les moteurs de recherche et de faire augmenter mon nombre de visiteurs à la minute!
Prenez note de ceci : Si vous possédez votre site Web et que vous remarquez que votre classement de recherche et le nombre de visiteurs ne bougent pas ou ne diminuent pas, vous devriez faire effectuer un audit technique de référencement tous les mois.
Avant d’apprendre à effectuer une vérification du référencement, examinons les questions les plus courantes qui seront soulevées et combien ils affecteront votre site Web. Ils se composent de trois couches:
- Crawlability et structure du site
- SEO sur page
- SEO technique
Crawlability et structure du site
Cela a quelque chose à voir avec l’accessibilité de chaque page dans votre site Web. Si Googlebot n’est pas en mesure d’explorer et d’indexer l’ensemble de votre site, il endommagera gravement votre classement des résultats de recherche, les téléspectateurs et les revenus à long terme.
Voici les principales erreurs que vous devez éviter :
- Liens et redirigerAcc
ording à SEMrush, ils ont découvert que tous les quatre sites Web a des erreurs de lien et 30 pour cent des sites Web ont rompu les liens internes. Aussi, gardez à l’esprit que votre site Web peut être l’un des 26.5 qui ont des erreurs 4XX ainsi. - Sitemap et Robots.txtEve
n s’il ya un petit pourcentage de sites Web qui ont des erreurs de formatage dans leur sitemap.xml et robot.txt, ayant soit dans votre site Web endommagera vos chances d’obtenir plus de vues et de rang plus élevé dans les résultats de recherche.
SEO sur page
Bien que la couche précédente discute de son site Web dans son ensemble, cette section se concentre sur les erreurs que vous pourriez faire dans chaque page de votre propre site Web. Améliorer les erreurs trouvées dans cette couche permettra non seulement d’améliorer les classements de recherche de votre site Web, mais aussi d’augmenter les performances hors page de chacun d’entre eux.
Voici une liste d’erreurs clés que vous devriez surveiller dans cette couche:
- ContentS
earch Engine Journal a mentionné dans son article de 2017 qu’il existe trois problèmes techniques de référencement que la plupart des propriétaire
s de sites Web font. Le premier est de graves problèmes en double, conseillant aux propriétaires d’ajouter une étiquette rel "canonique" et de créer un contenu unique sur
un contenu en double bien optimisé. Il s’agit de pages Web ayant un faible ratio texte-HTML, qui est présent dans 93,72 p
our cent des sites Web. Enfin, 73,47 pour cent des pages ont au plus 250 mots par page, ce qui les rend inappropriés et contre nature. - Meta DescriptionsSi
vous êtes l’un des 63 pour cent des propriétaires qui ne mettent pas dans l’effort dans la création d’une description méta pour chacune de leurs pages, cela peut entraîner un taux de clics plus faible. Une er
reur encore plus grande est d’avoir des descriptions méta en double pour vos pages Web. 54 pour cent des propriétaires font cette erreur et il aura également une incidence lourde sur le taux global de clic-through ainsi.
- Étiquettes de titre, balises H1 et i
magesUn facteur dans le classement du site Web peut être attribué aux titres, titres et images. Vous d
evez vous assurer d’ajouter des balises alt manquantes pour toutes vos images, raccourcir les balises de titre verby, et ajouter suffisamment de balises H1 à chacune de vos pages. Cela affectera négativement l’UX global de votre site Web, diminuant ainsi votre classement en même temps.
Pertinent: En savoir plus sur la page SEO ici
SEO technique
Dans cette section, cela jette un oeil à la vitesse à laquelle votre site web se charge non seulement sur les appareils tels que les PC et les ordinateurs portables, mais aussi sur les smartphones et les tablettes. Comme une étude par Amazon a révélé qu’une baisse de 1 pour cent des ventes peut être liée à 100 millisecondes de temps de charge supplémentaire, en évitant toute erreur dans cette couche bénéficiera positivement la croissance de votre site Web.
Voici une liste d’erreurs clés à surveiller dans cette couche :
- Vitesse de pa
geUn des problèmes les plus élevés que votre site Web peut avoir est n’importe lequel de vos sites Web ayant une vitesse de charge de page lente. Ignorer ce problème fera chuter votre note Google globale. Un autre pr
oblème qui doit être résolu immédiatement est d’avoir de grandes tailles de pages HTML. Même si moins de 1 pour cent des sites Web contiennent une grande taille de page HTML, ayant au moins un site fait de cette façon non seulement rendre votre site plus lent par comparaison, mais aussi le rendre moins convivial dans le processus.
Les éléments suivants d’une page Web peuvent influer sur ces critères :
- Hôte du site Web
- Grandes images
- Vidéos intégrées
- Plug-ins
- Annonces
- Thème
- Widgets
- Script répétitif ou code dense.
- Vieille technologie
Cet aspect se réfère à la façon dont le site a été fait. Par exemple, si un site Web a été fabriqué à l’aide de PHP 4 au lieu du PHP 7 actuel, c’est ce qu’on appelle la vieille technologie.
Plusieurs éléments sont nécessaires pour les sites Web de cette génération, y compris google Analytics, le Google Tag Manager, un balisage schéma, et robots.txt. Des éléments tels que Flash et iframes devraient être supprimés immédiatement afin d’augmenter le temps de chargement ain
si. Mis à part le balisage schéma et robots.txt, vous devez vous assurer qu’il n’est pas bloqué par ce dernier. Après cela, continuez à fonctionner sur le serveur en le vérifiant de temps en temps.
- Convivialité mobile
Comme l’augmentation de la personnes-smartphone augmente de façon exponentielle, votre site Web doit être fait où il peut être consulté sur de plus petits appareils tels que les smartphones, tablettes et montres intelligentes. Cela est également dû au service d’indexation mobile de Google a été annoncé en Décembre 2018.Mis à part
cette tendance, il a été démontré que le trafic smartphone a déjà dépassé les recherches de bureau depuis longtemps maintenant. Cela sig
nifie que ne pas être en mesure de faire son site Web s’adapter à ces tendances subira une perte majeure de rapport clickthrough, classements de recherche, et le trafic potentiel tout à la fois.
Après avoir appris quelles erreurs de référencement à corriger tout de suite, nous allons maintenant plonger dans la façon dont vous pouvez effectuer votre propre audit technique SEO.
Vous souhaitez également lire mon guide sur les 20 meilleurs outils SEO de 2020 ici
Étape 1 : Identifier les erreurs de crawl
La première étape consiste à faire vérifier votre site et à obtenir un rapport d’analyse. Obtenir un vous aidera à apprendre laquelle des erreurs ci-dessus vous devez atténuer tout de suite.
Il est fortement recommandé que vous fassiez cela tous les mois afin de garder son site propre des erreurs de référencement et de le garder aussi optimisé que possible.
Avant d’apporter des modifications basées sur le rapport, assurez-vous de créer une sauvegarde du site en premier.
Après la sauvegarde, commencer à corriger les erreurs de crawl en redirigeant la plupart des 404 erreurs et les transformer en 301 redirections à la place.
Ensuite, transmettez le site Web mis à jour à une équipe de développement afin de déterminer la cause, si oui ou non ils doivent ajouter un nouveau fichier d’accès .html ou augmenter la limite de mémoire du serveur.
En outre, supprimez les redirections permanentes de la carte de site, les liens internes et les liens externes.
Étape 2 : Vérifiez les codes d’état HTTPS
S’assurer que tous vos sites Web sont en HTTPS et non dans HTTP est un must. En dehors de cela, il faut également vérifier d’autres erreurs à l’aide de Google Search Console.
Voici quelques-uns des codes de réponse que votre site Web peut avoir :
- 301 – la redirection habituelle
- 302 – un code d’erreur qui se produit habituellement dans les sites de commerce électronique lorsqu’un produit est en rupture de stock
- 400 – Les utilisateurs ne peuvent pas accéder à la page
- 403 – Les utilisateurs ne sont pas autorisés à accéder à la page
- 404 – la page n’est pas trouvée, ce qui pourrait être le résultat de la suppression d’une page sans ajouter une redirection 301
- 500 – erreur interne de serveur, qui doit être corrigée avec une équipe de développement web
Cela aidera à supprimer tous les codes de réponse 4xx et 5xx, améliorant ainsi la traçabilité du site et l’expérience utilisateur.
Enfin, vérifiez tous vos certificats SSL. Cela permettra non seulement d’éviter les erreurs d’analyse, mais aussi de garder toutes les données entre vous et vos visiteurs sécurisés en même temps.
En ce qui concerne les certificats SSL, vous devriez donner la priorité à l’obtention d’un pour votre domaine et sous-comtés dès que possible. Les utilisateurs qui visitent un site Web sans lui seront alertés par un avertissement "Pas sécurisé" sur leurs navigateurs, diminuant ainsi votre nombre de visiteurs dans le processus.
Étape 3 : Vérifiez l’état de la carte de site XML
Comme mentionné dans la section précédente, avoir une carte de site vous aidera à avoir un classement de recherche plus élevé. Cela aidera également les robots de recherche à trouver vos pages Web ainsi.
Ce qu’il faut prendre note lors de l’édition d’une carte de site XML
- Il est écrit en utilisant XML exempt de toute erreur de formatage, y compris les 200 codes de statut et canoniques appropriés.
- L’ensemble du fichier est écrit à l’aide du protocole XML sitemap.
- Inclut toutes les pages mises à jour du site Web.
- Soumettez-le à votre console de recherche Google ou ajoutez-le dans votre fichier robots.txt.
Étape 4 : Vérifier l’heure de chargement du site
Pouvoir accéder à n’importe quelle page de votre site Web par les visiteurs passés, présents et futurs est un must pour qu’ils maintiennent le trafic élevé.
✋ Stop worrying about SEO and have me do it for you

PS: Ready to work with the 0.01% of all SEOs worldwide? Click here.
Pour ce faire, vous pouvez utiliser PageSpeed Insights de Google ou un autre outil de chargement de site pour vérifier. Idéalement, il devrait être inférieur à 3 secondes.
Résoudre cela peut être fait en organisant quels éléments du site doivent être optimisés pour des temps de chargement plus rapides et une meilleure expérience utilisateur.
En dehors de cela, vérifiez si le serveur est en panne ou fonctionne plus lentement que d’habitude. Cela peut se produire si plusieurs utilisateurs tentent d’accéder au serveur à la fois et une réponse possible à cela est de le mettre à niveau dès que possible.
Ensuite, vérifiez si l’un de vos sous-ddomains sont redirigés vers le site Web de la maison. Cela aidera à prévenir toute invisibilité complète de page dans l’un de vos sites Web dans le processus.
Dissimulation
Si votre site Est placé dans un résultat de recherche où il ne contient pas les informations dont l’utilisateur avait besoin, il est alors autrement connu sous le nom de dissimulation.
Un exemple de ce phénomène est lorsque les chenilles en apprendre davantage sur le texte HTML de votre site Web tout en servant des visuels aux visiteurs. Un autre est si vous avez conçu un site Web pour avoir la couleur du texte pour être similaire à l’arrière-plan.
Si cela est présent dans votre site Web, il est fortement suggéré que vous devriez le faire supprimer immédiatement en réorganisant la façon dont chaque page Web est faite. Cela permettra d’éviter tout dommage négatif à votre classement général dans le processus.
Étape 5 : Assurez-vous que votre site est mobile
Pour cette étape, on peut utiliser le test Google Mobile-Friendly. Vous entrez simplement votre site dans l’outil et il générera un rapport concernant le fonctionnement de votre site Web dans mobile et ce qui doit être amélioré.
Des solutions sur la façon de rendre un site Web convivial
- Augmenter la taille des polices
- Embed vidéos Youtube
- Images compressées
- Utiliser des pages mobiles accélérées (AMP)
- Ajouter des données structurées
- Mettre à jour les URL sur les URL mobiles.
- Vérifier et mettre à jour le code hreflang et les liens aussi souvent que possible
- Ajouter des éléments tactiles
- Inclure la localisation
Étape 6 : Audit pour la cannibalisation des mots clés
Cet audit vérifie tout article qui partage les mêmes mots clés. Ayant ces fera Google confus quant à la page à prioriser en premier quand il peut être consulté dans les résultats de recherche.
Le fait d’avoir ces sites en double aura une incidence négative sur votre ratio de clics, votre autorité et vos taux de conversion.
Utilisez le rapport Performance de google Search Console pour vérifier quelles pages sont en compétition pour les mêmes mots clés, puis filtrez les pages qui utilisent la même chose dans leur URL et combien de pages sont classement pour ces mêmes mots clés.
Les sites en double comprennent également des sous-domains. Un exemple d’un sous-ddomain est d’avoir blog.yourwebsite.com tout en ayant yourwebsite.com comme votre principal.
Une autre façon d’optimiser votre utilisation de mots clés sur toutes vos pages sont les suivantes:
- Utilisez des étiquettes H1 pour les titres de haut niveau
- Appliquer des étiquettes H2 pour les principales catégories
- Inclure H3 à H6 pour les sous-catégories et les liens importants
- Évitez de répéter les mêmes mots clés sur plusieurs rubriques
- Écrivez le contenu de la page entière dans une balise H
- Ne pas utiliser les balises H dans les rubriques
- Inverser l’ordre des balises H
- Utilisez H1 pour tous les titres sur une seule page, sauf en mettant en évidence des sujets tout aussi importants sur une page
- Couvrir des sujets similaires ou cibler les mêmes mots clés à la fois sur votre domaine principal et sous-propriétés
Étape 7 : Vérifiez le fichier robots.txt de votre site
Pour cette étape, jetez un oeil à votre fichier robots.txt et recherchez toutes les lignes "Disallow" en elle.
Avoir ces moyens qu’un ou plusieurs de vos liens sont bloqués à partir de moteurs de recherche et ne peuvent pas être affichés dans les résultats de recherche futurs.
En interdisant quels sites Web à ramper et en permettant ceux qui devraient être, cela aidera non seulement à augmenter la visibilité de votre site Web, mais aussi vos classements de recherche ainsi.
En dehors de cela, assurez-vous que mettre à jour tous les liens interdits d’être en minuscule.
Ensuite, si vous possédez plusieurs sites Web sous-ddomain, prenez le temps de faire un robots.txt pour chacun.
Par la suite, supprimez les URL de paramètres, les pages non indexables, et ajoutez l’étiquette rel "alternative" pour la carte de site.
Enfin, toujours utiliser robots.txt correctement tout en maintenant le site Web. Il y a deux fois quand le vérifier : pendant le développement et après le lancement.
Pendant le développement, toujours prendre l’habitude de bloquer vos robots.txt. Cela permettra d’éviter que l’une de vos pages n’indexe le contenu incomplet et non optimisé et traite les versions précédentes de vos pages de site Web comme un double.
Après le lancement, vérifiez toujours son contenu aussi souvent que possible. Cela empêchera l’une de vos pages d’être mal classé et de corriger cela est aussi simple que de définir des directives d’analyse pour les moteurs de recherche.
Étape 8 : Effectuer une recherche sur le site Google
Une façon de s’assurer que votre site n’a pas été pénalisé par Google ou est bloqué d’être indexé est simplement en le recherchant sur Google.
Il suffit de taper "site:" dans la barre de recherche Google, puis ajouter dans votre site Web après le côlon et vérifier quelles pages sont indexées par le moteur. Cela vous aidera à revenir aux étapes précédentes et à effectuer toute vérification des erreurs là-bas comme une amélioration.
Si, par exemple, une autre marque apparaît dans les résultats, résolvez-la immédiatement car cela peut être la raison d’un problème plus important présent dans votre site Web. Pour résoudre ce problème, il faut plonger dans son analyse.
Ensuite, si la page d’accueil n’apparaît pas comme le premier résultat, vérifiez-la manuellement pour voir ce qui manque. Assurez-vous d’apprendre si oui ou non il a une pénalité ou est dans une architecture de site mal faite.
Enfin, recoupez le nombre de pages d’atterrissage organiques par rapport aux résultats de recherche donnés par Google. Cela aidera à avoir une idée de ce que ces moteurs considèrent comme précieux.
Lisez aussi comment obtenir votre site Web au sommet de Google ici
Étape 9 : Vérifiez s’il y a des métadonnées en double
Dans la sixième étape, nous avons discuté que vous pouvez supprimer la cannibalisation des mots clés en corrigeant les sites qui ont le même mot clé dans leur URL ou sont classés dans les mêmes mots clés. Dans cette étape, je vais vous présenter une autre solution pour éviter ce problème.
Il est nommé en utilisant deux mots: méta description.
Selon la recherche, 54 % ont des descriptions de métapliquées en double, tandis que 63 % sont absentes de différents sites.
Pour les repérer, obtenez d’abord un audit détaillé de référencement ou un rapport d’analyse. Ensuite, on peut procéder à modifier votre site Web avec des classements élevés et la valeur, en gardant à l’esprit de rendre toutes les descriptions méta uniques entre les pages.
Étape 10 : Longueur de description de Meta
Après l’étape précédente, un autre problème qui peut être rencontré en ce qui concerne la description de méta est sur combien il est trop long.
Récemment, sa longueur est passée de 160 à 320 caractères.
This piece of writing offers clear idea for the new people of blogging, that genuinely how to do blogging.