Manuel – comment régler les paramètres d’analyse

Manuel – comment régler les paramètres d’analyse

 1. Comment analyser

1.1 Combien d'URL faut-il analyser ?

1.2 Quelle doit être la vitesse de l'analyse ?

1.3 Accepter les cookies

1.4 Données de connexion

1.5 Normalisation d'URL

1.6 Comportement vis-à-vis du robots.txt

1.7 Centre de calcul de l'analyse

1.8 Agent-utilisateur du crawler

1.9 En-tête de requête supplémentaire

2. Que faut-il analyser ?

2.1 URL de la page d'accueil

2.2 Analyser les sous-répertoires

2.3 Analyser les images

2.4 Analyser les sous-domaines

2.5 Analyser Sitemap.xml

2.6 URL du sitemap

2.7 Classer les paramètres GET

2.8 Ignorer les paramètres GET

3. Ignorer / Inclure des URL

3.1 Exclure des URL (mettre sur liste noire)

3.2 Inclure des URL (whitelist)

3.3 Tester les paramètres

4. Paramètres généraux

 

 

 

 

  1. Comment analyser

 

1.1 Combien d'URL doivent être analysées ?

 

Définissez le nombre d'URL qui doit être analysé sur ce projet. En général, il doit être supérieur au nombre d’URL du site analysé, pour que vous puissiez avoir une analyse complète de ce site. Si vous avez plusieurs projets, vous devez répartir le volume d’URL de votre compte entre vos différents projets. Ce volume est de 50000 URL par analyse pour un compte Pro, 1Mio pour un compte Business, 4Mio pour un compte Agence

 

 

1.2 Quelle doit être la rapidité de l'analyse ?

 

La grande majorité des serveurs peuvent recevoir jusqu’à 10 requêtes parallèles sans que cela n’affecte leur serveur. Au-delà, cela peut avoir un impact. Si vous observez néanmoins une diminution dans l’accessibilité de votre serveur due à notre robot, diminuez le nombre de requêtes parallèles à 3. L’analyse prendra plus longtemps, mais n’affectera pas votre serveur.

 

 

1.3 Accepter les cookies

 

Activez cette fonction si votre site nécessite des cookies pour fonctionner correctement. Par défaut, cette option est désactivée pour identifier les problèmes causés par le rejet des cookies, tels que les bugs d'identification de session.

 

 

1.4 Données de connexion

 

Votre site est en construction et est protégé par un mot de passe ? Ce n'est pas un problème, vous pouvez ajouter vos identifiants d'authentification .htaccess dans les paramètres du projet. Une fois que vous avez entré les identifiants de connexion, vous pouvez vérifier si le crawler est bien capable d'accéder à votre domaine en lançant un test dans l’onglet « Tester ».

 

 

1.5 Normalisation d'URL

 

En utilisant la normalisation d'URL, nous normalisons les URL comme le feraient les moteurs de recherche. Exemples :

 

www.domain.com:80 => www.domain.com

www.dOmAi.cOM:80 => www.domain.com

HTTP: //www.domain.com => http://www.domain.com

hTtpS: //www.domain.com:443 => https://www.domain.com

www.domain.com/test//file.php => www.domain.com/test/file.php

 

Si vous désactivez cette option, les URL s'affichent exactement comme dans votre code source.

 

 

1.6 Comportement vis-à-vis du robots.txt

 

Options possibles :

 

  • Tout analyser mais créer des statistiques disallow basées sur le fichier robots.txt
  • Parcourir uniquement les pages qui ne sont pas bloquées par votre fichier robots.txt
  • Tout analyser, mais créer des statistiques disallow basées sur le fichier robots.txt personnalisé
  • Parcourir uniquement les pages qui ne sont pas bloquées par votre fichier robots.txt personnalisé

 

En effet, vous pouvez entrer un fichier robots.txt personnalisé si nécessaire.

 

 

1.7 Centre de calcul de l'analyse

 

L'option " Centre de calcul de l'analyse " changera la localisation du serveur à partir duquel le crawler analysera.

 

 

1.8 Agent-utilisateur du crawler

 

L'option agent-utilisateur déterminera le nom du crawler. Par exemple, vous pouvez entrer « Firefox ».  

 

 

1.9 En-tête de requête supplémentaire

 

Définissez des en-têtes de demande supplémentaires, si nécessaire.

 

 

 

 

 

  1. Que faut-il analyser ?

 

 

2.1 URL de la page d'accueil

 

L'URL de la page d'accueil définit ce que RYTE prend comme page d'accueil de votre domaine. Cela définit le point de départ de l’analyse. Si votre page d'accueil n'est pas indexable, veuillez jeter un coup d’œil à cet article.

 

 

2.2 Analyser les sous-répertoires

 

Grâce à cette option, votre analyse ne contiendra que les données du sous-répertoires défini (par exemple « /wiki/ »)

 

 

2.3 Analyser les images

 

Voulez-vous analyser les images ? En désactivant cette fonction, certains rapports ne seront pas créés mais vous disposerez de plus de ressources pour analyser les documents HTML.

 

 

2.4 Analyser les sous-domaines

 

Analyser tous les sous-domaines trouvés et les intégrer dans les rapports du domaine principal. En désactivant cette fonction, les sous-domaines seront traités en tant que „liens externes“.

 

 

2.5 Analyser Sitemap. xml

 

Analyser le sitemap.xml pour détecter les erreurs et le potentiel d’optimisation. Si plus de 20 fichiers sitemap.xml sont utilisés, il est possible de désactiver cette fonction pour accélérer l'analyse.

 

 

2.6 URL du sitemap

 

Par défaut, notre crawler recherche le sitemap.xml dans le dossier racine (domain.com/sitemap.xml). Si votre sitemap est situé ailleurs ou a un nom différent, vous pouvez ajouter son URL aux paramètres pour que l‘analyse le suive.

 

Vous pouvez ajouter autant de sitemaps que nécessaire.

 

Utilisateurs de YOAST :

 

Si votre sitemap_index.xml n'est pas reconnu correctement, veuillez ajouter chaque URL de sitemaps de l'index.

 

(p. ex.:... /page-sitemap. xml)

 

 

2.7 Classer les paramètres GET

 

Classer les paramètres GET des URL par ordre alphabétique peut aider à réduire les contenus dupliqués.

 

 

2.8 Ignorer les paramètres GET

 

Définir ici les paramètres GET. Ils seront automatiquement modifiés/supprimés des URL trouvées sur le site web. Cela permet d'éviter des changements d’URL inutiles depuis les ID de session ou les paramètres de tracking. Bémol : les problèmes comme le duplicate content peuvent ne pas être identifiés.

 

 

  1. Ignorer / Inclure des URLs

 

 

3.1 Exclure des URL (mettre sur liste noire)

 

Vous pouvez exclure des URLs de votre crawl en ajoutant des règles sur la liste noire. Dans cet exemple, nous voulons exclure notre encyclopédie (appelé « Wiki »). Pour cela, nous allons ajouter ce sous-dossier dans notre liste noire. La règle devrait ressembler à ça :

 

regex:/wiki/

 

Cette règle exclura toutes les URL contenant /wiki/. Veuillez noter que ceci ne tient pas compte de la hiérarchie des dossiers. Par exemple, .com/wiki/ sera exclu au même titre que .com/sous-dossier/wiki/.

 

Vous pouvez appliquer cette règle en allant plus ou moins loin dans vos sous-dossiers. Vous pouvez par exemple ajouter la règle suivante :

 

regex:https://en.ryte.com/magazine/onpage-becomes-ryte

 

 Vous pouvez ajouter autant de règles que vous le souhaitez.

 

 

3.2 Inclure des URL (whitelist)

 

La liste blanche a les mêmes fonctionnalités que la liste noire, mais elle fonctionne dans le sens inverse. Si vous devez appliquer des règles "include only", vous pouvez utiliser notre fonction whitelist.

 

Dans l’exemple suivant, nous voulons analyser UNIQUEMENT notre magazine et notre Wiki. Pour cela, nous ajoutons ces "sous-dossiers "dans notre whitelist avec ces règles :

 

regex:/wiki/

regex:/magazine/

 

 

3.3 Tester les paramètres

 

Lancer une analyse sans avoir tester au préalable vos paramètres peut vous faire perdre un temps précieux. En effet, si quelque chose cloche, vous ne pourrez vous en rendre compte qu’une fois l’analyse terminée.

 

Pour éviter cela, aller dans l’onglet « Tester », et tester vos paramètres.

 

Reprenons l’exemple ci-dessus : seules les URL du Wiki ou du Magazine doivent être analysée, comme inscrit dans la whitelist.

 

Si nous saisissons une URL qui ne doit pas être analyser (par exemple, fr.ryte.com) et que le status de la réponse est 9xx (par exemple 950), vos paramètres sont corrects. Si l'état est toujours 200, les règles n'ont pas fonctionné.

 

Nous pouvons ensuite entrer une URL qui est inscrite dans la whitelist. Si le test répond avec un statut 200, ça a fonctionné

 

Paramètres de test - Codes de status :

 

200 – OK, sera analysée

 

950 - bloquée par la whitelist

 

951 - bloquée par la liste noire

 

 

 

Important : Si votre test a échoué et que vous l'exécutez à nouveau avec la même URL-Test, il est possible qu'il soit mis en cache. Veuillez donc saisir une URL différente à chaque fois que vous exécutez un test.

 

  1. Paramètres généraux

 

Dans les Paramètres généraux, vous pouvez modifier le nom du projet et le slug. Le nom de votre projet correspond à la manière dont il sera affiché dans votre compte Ryte (par défaut : nom du domaine).

 

ATTENTION : Le domaine du projet ne sera pas affecté. Cela ne changera que l'affichage de l’URL sur votre compte. Cette fonction est importante, par exemple, si vous analysez le même domaine plusieurs fois.

Vous avez d’autres questions ? Envoyer une demande

0 Commentaires

Veuillez vous connecter pour laisser un commentaire.
Réalisé par Zendesk