Quels sont les critères impactant le SEO en 2020 ?

Le 28 mai 2020  SEO

Quels sont les critères impactant le SEO en 2020 ? Travailler son référencement naturel est l’un des enjeux indéniables du Search Engine Marketing (SEO et SEA, c’est-à-dire tout ce qui touche au marketing de recherche) pour être visible auprès des internautes et acquérir ainsi le précieux trafic qui permettra le développement économique de l’entreprise digitalisée. Mais […]

Quels sont les critères impactant le SEO en 2020 ?

Travailler son référencement naturel est l’un des enjeux indéniables du Search Engine Marketing (SEO et SEA, c’est-à-dire tout ce qui touche au marketing de recherche) pour être visible auprès des internautes et acquérir ainsi le précieux trafic qui permettra le développement économique de l’entreprise digitalisée.

Mais par quels moyens peut-on améliorer le positionnement d’un site dans les résultats de recherche naturels ?

Dans cet article, nous reprenons les résultats d’une étude menée par le Journal du Net – auprès de 133 référenceurs français – sur les facteurs ayant le plus d’impact en référencement naturel. Cette étude a été créée il y a 3 ans et a été renouvelée cette année.

Ces référenceurs s’accordent sur l’importance de travailler le triptyque suivant : la technicité SEO d’un site, la stratégie de contenu, et le fameux netlinking.

Quels sont les critères essentiels au SEO technique ?

En premier lieu, nous retrouvons les critères techniques les plus importants à travailler dans sa stratégie SEO On-site.


Infographie dévoilant les principaux critères du SEO technique selon les référenceurs – source : Journal du Net

Les principales optimisations techniques à mettre en place en SEO

Pour qu’un site internet soit irréprochable d’un point de vue technique en SEO, de nombreux critères sont à prendre en compte. Tout d’abord, les référenceurs s’accordent sur l’importance de faire apparaître le mot-clé principal d’une page dans la balise Title, c’est-à-dire dans le titre apparaissant dans les résultats de recherche.

Ensuite, il est important de mettre régulièrement un site à jour pour ne pas dégrader son référencement naturel. Cela peut concerner l’ajout de nouveaux contenus ou la correction d’erreurs techniques. Par exemple, un site e-commerce qui met en place des offres promotionnelles doit les renouveler ou les supprimer dès lors qu’elles sont expirées.

De plus, un site ne doit pas comporter d’erreurs 404 signifiant des pages indisponibles. Ce résultat a un impact négatif pour les robots qui mobilisent du temps d’exploration inutile pour ces pages. Cela génère également une frustration pour l’utilisateur qui ne trouve pas l’information recherchée. La mise en place de redirections vers des pages similaires ou adaptées permet de corriger ces erreurs. Il s’agit d’une étape bien souvent oubliée lorsque des modifications importantes sur les pages sont réalisées ou lors d’une refonte d’un site internet par exemple.

Par ailleurs, des corrections techniques doivent être apportées aux différentes pages d’un site comme les balises canonical. Mises en vigueur depuis 2009, celles-ci permettent de différencier des pages de contenu dupliqué, de contenus proches ou similaires. Cette technique indique aux robots du moteur de recherche la page principale qui est à explorer. Ainsi, ils auront plus de temps pour explorer les autres pages du site et ne pas perdre de temps à crawler – c’est-à-dire à parcourir – les pages similaires.

Même si le sujet divise les référenceurs, un site qui n’est pas crawlable par les robots des moteurs de recherche, est un site qui se positionnera difficilement dans les résultats de recherche.

L’importance du crawl et de l’indexation mobile

Pour qu’un crawl de site soit efficace, il est nécessaire d’accorder une grande attention au maillage interne. En liant plusieurs pages entre elles, cela permet aux crawlers (les robots d’indexation de Google) de mieux parcourir toutes les pages d’un site. Par la suite, ces dernières pourront être indexées, c’est-à-dire apparaître dans les résultats du moteur de recherche.

Aujourd’hui, 67% de la population mondiale utilise son mobile pour aller sur internet (selon « le Blog du Modérateur »). Adapter son site à une version mobile devient donc primordial. Aussi, depuis 2018, les crawlers analysent en priorité la version mobile d’un site. Un processus qui se nomme le « mobile-first indexing » ou l’indexation mobile. Ainsi, il est nécessaire de conserver un contenu identique sur mobile et sur desktop tout en adaptant ce même contenu sur mobile afin de ne pas gêner l’expérience utilisateur. Un critère qui doit être couplé à la vitesse de chargement des pages afin d’être optimal.

Optimiser la web performance

Pour 70% des référenceurs interrogés, la web performance d’un site est l’un des critères essentiels au SEO technique. Cette web performance se caractérise par la vitesse d’un site, c’est-à-dire le temps de réponse du serveur associé à la vitesse de chargement d’une page. Depuis 2010, c’est devenu un facteur de positionnement pour les algorithmes de Google sur la partie desktop, et depuis juillet 2018 sur la partie mobile. Pour mesurer la vitesse d’un site, des outils sont disponibles gratuitement et sont mis à la disposition de chacun comme Google PageSpeed Insights ou Lighthouse. Optimiser la web performance d’un site génère un gain de temps pour les crawlers tout en améliorant l’expérience utilisateur.

Travailler les données structurées et faciliter l’exploration des pages

Bien que les données structurées ne soient pas un facteur de positionnement en soi, elles permettent une meilleure compréhension des pages par les crawlers de Google. Il s’agit d’informations intégrées dans le code source des pages d’un site. Avec ces données, la finalité recherchée est d’afficher plus d’éléments dans les résultats de recherche pour attirer plus de trafic.

Ces données doivent être présentes sur les pages stratégiques d’un site comme les pages produits d’un site e-commerce. Celles-ci doivent être cohérentes avec le contenu de la page : nom, prix du produit et avec un système de notation par exemple.

Travailler l’ensemble de ces critères techniques sur un site améliorera son référencement naturel. C’est pourquoi chez SEARCH-Factory, nous accordons beaucoup d’importance au respect des recommandations de Google pour la technicité d’un site afin de maximiser l’efficacité de la production de contenus ou la mise en place d’une stratégie de netlinking.

Les critères SEO importants pour un contenu optimisé selon les référenceurs

En 1996, pour souligner l’importance des contenus, Bill Gates formula « Content is king ». Puis en 2019, John Mueller, webmaster trend analyst chez Google renforça cette formulation en indiquant le besoin de travailler des contenus optimisés en SEO. Ainsi, nous vous présentons une liste de critères SEO importants à prendre en compte pour la production de contenus d’après les référenceurs interrogés.


Infographie dévoilant les critères principaux d’un contenu optimisé – source : Journal du Net

Travailler le contenu d’un site : les principaux critères SEO à mettre en œuvre

Tout d’abord, la majorité des professionnels du référencement privilégient la pertinence d’un contenu. Ainsi, un texte doit comporter des informations vérifiées et non plagiées. Un contenu dupliqué peut engendrer des sanctions de la part des moteurs de recherche. Afin de respecter les bonnes pratiques d’un contenu optimisé, nous vous conseillons donc de rédiger des contenus uniques avec une sémantique travaillée.

Bien que le champ lexical se rapproche du champ sémantique d’un mot, il s’agit bien là de deux notions différentes. La sémantique comprend l’ensemble des sens qu’un mot peut évoquer, contrairement au champ lexical qui se focalise uniquement sur un seul sens. Par exemple, la sémantique du mot « opéra » peut décrire un lieu tout comme un art dramatique. Ainsi, un contenu est à compléter lexicalement tout en veillant à bien respecter la sémantique du mot-clé ciblé.

Ensuite, un contenu doit être structuré par un titre et des sous-titres (balises Hn) qui respectent cette sémantique. Le mot-clé principal d’une page doit donc figurer dans ces titres, en plus de la balise Title, qui est l’un des critères techniques précédemment évoqués. La structuration d’un contenu facilite l’accès à l’information recherchée par le lecteur mais aide aussi le crawler à comprendre le sens du contenu. Par ailleurs, l’utilisation de visuels apportera de la diversité au contenu et sera d’autant plus apprécié par les internautes.

Quelle est l’utilité des images en SEO ?

Bien que l’utilisation des images sur un site ne soit pas un critère de positionnement majeur, le fait de renseigner la balise alt de chaque image permet d’optimiser son positionnement dans le moteur de recherche d’images. Cela permet également d’aider l’algorithme à interpréter son contenu. Les images, comme les vidéos permettent d’améliorer l’expérience utilisateur et surtout d’augmenter le temps moyen passé sur une page voire de diminuer le taux de rebond.

En 2020, le content marketing reste l’un des critères SEO qu’il est nécessaire de développer. Travailler le contenu d’un site (texte et images) optimisera son positionnement. Après les optimisations du SEO technique et des contenus, s’ensuit le netlinking. Une technique complémentaire aux deux précédentes qui va accroître la popularité d’un site auprès de Google.

Quels sont les critères essentiels au netlinking ?

Le netlinking est une stratégie SEO encore plébiscitée en 2020 par les référenceurs. Celle-ci se traduit par l’obtention de liens provenant de sites externes afin d’optimiser son référencement naturel.

Selon les référenceurs sondés, nous retrouvons les critères de netlinking qui sont à privilégier.


Infographie dévoilant les principaux critères en netlinking – source : Journal du Net

Pourquoi recevoir des liens de qualité ?

Tout d’abord, dans une stratégie de netlinking, il est important de privilégier la qualité des liens entrants. Ainsi, pour 4 référenceurs sur 5, le premier critère reste l’obtention de liens provenant de sites de grande notoriété, c’est-à-dire des sites connus et reconnus. Recevoir ces liens apportent une reconnaissance légitime de son site vis-à-vis des moteurs de recherche. Ces acquisitions de liens sont analysées par le PageRank de Google qui est un facteur de l’algorithme du moteur de recherche pour déterminer la qualité des liens reçus. Celui-ci est composé d’un indicateur autrefois accessible par tous mais qui est désormais privé et visible uniquement par Google.

Pour parvenir à obtenir des liens de qualité, les spécialistes du SEO utilisent des outils comme Majestic ou Ahrefs. Ces derniers permettent de trouver des sites ayant une thématique similaire. Par exemple, un distributeur de mobilier d’extérieur peut chercher à obtenir des liens depuis des sites de référence dans le jardinage. Ainsi, il obtient des liens aux thématiques proches de son domaine d’activité.

Éviter la suroptimisation des liens

À cette recherche de lien de qualité s’ajoute la nécessité d’obtenir des ancres naturelles et non suroptimisées en SEO. Reprenons l’exemple du distributeur de mobilier d’extérieur. S’il souhaite obtenir un lien vers ses produits, l’ancre à associer pourrait être « trouver son mobilier d’extérieur » au lieu de « mobilier extérieur ». Plus une ancre semble naturelle, et plus elle respectera les conditions du filtre Google Penguin qui vise à pénaliser le netlinking de mauvaise qualité.

Faut-il toujours prioriser la qualité à la quantité de liens obtenus ?

Bien que la qualité d’un lien soit à privilégier, la quantité est également un facteur à prendre en compte. Aussi, l’objectif à se fixer est d’obtenir un grand nombre de liens de qualité. Plus un site obtient des liens et plus il devient influent auprès de Google.

En revanche si un site acquière de nombreux liens de faible qualité, provenant par exemple d’annuaires ou de forums, cela peut nuire à son référencement. Il faut équilibrer le ratio qualité / quantité pour avoir une stratégie de netlinking efficace.

Quels sont les critères les moins importants en netlinking ?

Bien qu’il soit préférable de privilégier des actions avec un fort impact positif sur son référencement naturel, l’utilisation de ceux ayant peu ou pas d’impact ne sont pas à délaisser pour autant surtout lorsque l’on souhaite générer du trafic vers son site. C’est le cas des liens entrants en NoFollow. Il s’agit d’une directive donnée aux robots de Google pour qu’ils ne suivent pas ces liens et ne les prennent pas en compte dans le calcul du PageRank. L’attribut Nofollow a été mis en place depuis 2005 dans le but d’empêcher l’acquisition de liens permettant de manipuler les algorithmes des moteurs de recherche. Ce type de lien a permis l’apparition de nouveaux attributs : les liens sponsorisés et UGC (User Generated Content ou générés par l’utilisateur) qui sont une évolution de l’attribut NoFollow. Pour un lien UGC, cela peut se traduire par un lien provenant d’une discussion dans un forum ou un commentaire de blog.

L’ensemble de ces critères, associés les uns aux autres, contribuent au référencement naturel d’un site. C’est pourquoi, chez SEARCH-Factory, nos experts s’attèlent à vous proposer la meilleure stratégie de netlinking selon vos besoins.

L’EAT : un critère soutenant la technicité SEO, les contenus et le netlinking

L’EAT (Expertise, Authoritativeness, Thrustworthiness) est lié à la technicité, au contenu et au netlinking d’un site. Celui-ci permet d’identifier la qualité d’un site selon certains critères, cités ci-dessous.


Infographie dévoilant les principaux critères de l’EAT selon les référenceurs – source : Journal du Net

Qu’est-ce que l’EAT ?

L’EAT est un critère – ancré dans les algorithmes de Google – permettant de mesurer trois éléments : la production de contenus pertinents, la création de lien de qualité et la crédibilité d’un site pour les moteurs de recherche.

Comment améliorer l’EAT d’un site ?

L’EAT se compose de trois critères : expertise, autorité et crédibilité.

En premier lieu, l’expertise revient à considérer l’auteur d’un site ou d’un article comme un expert dans son domaine. Il est par ailleurs conseillé d’inclure le nom de l’auteur dans les articles publiés pour apporter plus de légitimité. Cette partie s’apparente au content marketing.

Ensuite, l’autorité vient appuyer la popularité du site et donc s’associer au netlinking. En règle générale, si un site est expert dans son domaine, des liens seront créés naturellement par d’autres sites spécialisés dans le même domaine.

Enfin, la crédibilité cherche à renforcer la confiance des internautes vis-à-vis du site. Cela peut se traduire par différentes actions comme la sécurisation du site (HTTPS), la réception et la mise en avant d’avis positifs, le renseignement de son compte Google My Business, la mise en place de mentions légales, etc.

Respecter ces trois critères c’est également respecter les bonnes pratiques du moteur de recherche pour optimiser son SEO.

Pour résumer cet article, la technicité SEO d’un site constitue les bases à mener. L’apport de contenus favorisera le positionnement du site. Le netlinking viendra consolider ce travail en augmentant la popularité du site tout en respectant les critères d’EAT. Combiner l’ensemble de ces critères revient donc à améliorer le positionnement d’un site dans les résultats de recherche naturels. Chez SEARCH-Factory, nos experts en SEO vous accompagnent dans votre besoin d’être mieux référencé. Alors demandez-dès maintenant un audit SEO de votre site internet.

Toutefois, pour gagner en visibilité et générer du trafic qualifié, il est nécessaire de travailler plusieurs canaux d’acquisition. Combiner le SEO au SEA (Search Engine Advertising ou référencement payant) ainsi que le SMO ( Search Media Optimization) – c’est-à-dire travailler sa e-reputation sur les réseaux sociaux – sont des stratégies s’inscrivant dans une logique SEM (Search Engine Marketing). En effet, ce dernier terme regroupe les techniques liées au référencement naturel et payant ainsi que la présence de l’entreprise sur les réseaux sociaux pour améliorer la visibilité d’un site et développer l’image de marque. Utiliser le SEA en complément du SEO permet notamment de cibler des requêtes sur lesquelles il peut être difficile de se positionner dans les résultats de recherche naturels. De plus, le positionnement d’un site dans les résultats naturels prend du temps ; plusieurs mois peuvent être requis avant de se positionner sur les mots-clés ciblés. Ainsi, pour un site récent ou en cours d’optimisation, le référencement payant peut apporter une visibilité quasiment immédiate et combler le manque de visibilité SEO dû au lancement. Mettre en œuvre une stratégie SEM augmentera le trafic qualifié d’un site tout en générant plus de conversions et donc de chiffre d’affaires.