Décortiquer les SERPs et constituer un corpus avec seo-hero.tech


Sommaire

Madeline
Sur twitter

SEO-hero.tech est un outil qui vous aidera à rédiger des contenus, en vous guidant sur les termes à utiliser. Ce outil vous aidera à composer votre corpus, à débuter une analyse sémantique. Il a pour but de scraper les SERPs pour extraire les n-grams, et vous donner quelques indicateurs.

Pour comprendre un peu la démarche, je vous conseille cette présentation des frères Peyronnet, je ne saurai être plus pédagogue. Ca m’évite de faire un blabla sur les sciences du langage, le traitement automatique des langues naturelles, car je ne suis pas qualifiée pour.

Comment penser son contenu pour les moteurs de recherche ?

La méthode pour constituer un corpus pour les moteurs de recherche

En résumé :

 Pour être pertinent sur un ensemble de mots clés, un texte doit être en alignement sémantique sur ces mots clés .
Pour augmenter sa pertinence, il faut apparaître les termes fréquents de la thématique, et ajouter quelques termes rares aussi.

Pour constituer un corpus, on va :

  • Sélectionner des sites web
  • Scrapper les pages de ces sites
  • Extraire les mots des pages en les comptant
  • Calculer les co-occurrences
  • Stocker les mots en base de données

Voilà, ca c’était pour la théorie pratique, maintenant passons à la pratique. Si vous voulez continuer la méthode des frères peyronnet, il fallait participer aux ix-labs. Tout était bien expliqué et des scripts étaient donnés…mais comme c’est terminé, vous pouvez vous rattraper en venant à Que Du Web (même s’il n’y aura pas forcément les mêmes sujets).

Sinon, vous pouvez utiliser seo-hero.tech.

Seo-hero.tech, l’outil pour constituer un corpus sémantique

La méthode de seo-hero.tech est légèrement différente c’est un outil gratuit, clé en main, donc autant en profiter.

Vous mettez un mot clé, ou une expression et l’outil se charge de récupérer les 100 premiers résultats de google, puis de scrapper chaque url pour extraire les termes utilisés et faire quelques calculs.

L’outil avance progressivement donc les indicateurs évoluent au fur et à mesure que le scrap avance. C’est parfois perturbant mais la barre verte vous indique la progression. Vous aurez 2 tableaux. Le premier contient des 1-gramme (1 seul mot), le 2e contient les 2 et 3-grammes.

LT : Long Tail

Ce sont les n-gram qui contiennent le terme. Vous trouverez ces informations dans l’onglet « Longtail ideas ».

Txt : Contexte

Cela vous donne le contexte, avec des exemples de phrases où le terme est utilisé.. un peu comme linguee.  En regardant le contexte, vous pouvez ajouter les phrases dans l’éditeur ou dans un spin, histoire de retravailler les textes, de les mettre de côté, etc.

HTML : répartition du terme dans les éléments html

vous aurez la liste des urls où le terme est présent, et le nombre d’occurrence par élément (2 fois dans le title, 1 fois dans le H1, etc.).Vous retrouverez les informations dans l’onglet HTML Insights.

TF : term frequency

Densité moyenne du mot clé, soit nombre d’occurrences du mot / Nombre de mots sur la page

Occur : occurrence

Nombre d’occurrence du mot, ou nombre de fois où le mot est répété.

W : words

Nombre moyen de mots trouvés sur les pages contenant le terme.

DF : document frequency

Le terme a été trouvé dans X% des pages analysées, donc des 100 premiers résultats de Google.

Du coup, nous avons également fait le tour des onglets.

Il reste juste l’onglet « Directives », qui liste en quelques sortes les co-occurrences, ou bien les expressions associées.

Voilà, vous avez la base, une matière brute…il reste maintenant à utiliser son cerveau pour bien analyser et exploiter tout ça. L’outil est également à ses débuts donc  n’hésitez pas à faire des retours à Walid pour qu’il puisse l’améliorer. Alors, go, il n’y a plus qu’à tester !

 

 

 

 

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *