Warum wurden nicht alle URL analysiert, die gefunden wurden?

Wenn der Crawler mehr URLs findet, wie er analysiert oder die Meldung kommt, dass die Webseite nicht vollständig analysiert werden konnte, kann dies verschiedene Gründe haben. In vielen Fällen liegt es an den Projekteinstellungen:

 

  1. Das Crawl-Volumen ist nicht ausreichend.
  2. Subdomains werden ausgeschlossen.
  3. URLs werden über robots.txt ausgeschlossen.
  4. URLs werden über die Blacklist ausgeschlossen.
  5. URLs werden über die Whitelist spezifiziert.
  6. Es wird nur ein bestimmtes Unterverzeichnis überprüft.

 

Am unteren Ende der Projekteinstellungen kannst Du über den Reiter „Frühere Analysen“ auch einsehen, wie viele URL in der Vergangenheit gefunden und analysiert wurden. So kannst Du sehen, ob das Problem schon länger besteht oder erst vor kurzem aufgekommen ist, z. B. durch geänderte Einstellungen.

 

Ob die robots.txt-Datei ausgewertet und Subdomains gecrawlt werden sollen, kann in den Projekteinstellungen unter dem Punkt „Was soll analysiert werden“ festgelegt werden.

 

 

Weiter unten, unter dem Reiter „Erweiterte Analyse“ kannst Du einsehen, ob nur ein Unterverzeichnis analysiert wird („Erweiterte Analyse“ -> „Was analysiert wird“ -> „Unterverzeichnis analysieren“) oder Subdomains angeben („Subdomains analysieren“).

 

Ebenfalls kannst Du hier überprüfen, ob durch eine Black- bzw. Whitelist beeinflusst wird, was genau gecrawlt wird („Erweiterte Analyse ->„URLs ausschließen / einschließen“). 

 

Haben Sie Fragen? Anfrage einreichen

0 Kommentare

Bitte melden Sie sich an, um einen Kommentar zu hinterlassen.
Powered by Zendesk