dates online
Gebruiker
- Lid geworden
- 20 mei 2010
- Berichten
- 20
Goede dag,
Al sinds dat mijn site de lucht in is heb ik last van enorm veel crawlfouten en ik weet nu echt niet meer wat te doen dus vandaar dat ik toch maar jullie hulp in roep.
Het gaat om de volgende fouten:
7 http:
in sitemap 27
niet bereikbaar 2
niet gevonden maarliefst 101
verboden door robots.txt 4
zachte 404 1
Bij deze heb ik de fouten geupload per categorie. Bij deze de bijlages ( heb er txt bestanden van gemaakt):
Bekijk bijlage crawlfouten.txtBekijk bijlage Webcrawl_errors_Zachte_404's_www_dates-online_nl_20110215T113057Z.txtBekijk bijlage Webcrawl_errors_Verboden_door_robots.txtBekijk bijlage Webcrawl_errors_Niet_bereikbaar_www_dates-online_nl_20110215T113043Z.txtBekijk bijlage Webcrawl_errors_In_sitemaps_www_dates-online_nl_20110215T113033Z.txt
Nu heb ik het idee dat het door 2 dingen komt:
1- de sitemap ( deze heb ik wel zojuist even aangepast met xmap in joomla) de sitemap geeft nu in plaats van 149 pagina's 23 pagina's dus misschien is dit ook beter
2- robots.txt
( dit is de robots.txt)
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
allow: /images/
En vast ook nog wel door iets anders maar zou niet weten wat, daar ik er niet veel verstand van hebt.
Wie o wie weet er een oplossing waardoor in ieder geval de meeste fouten weg worden gewerkt, want dit is wel heel erg vind ik.
Ik hoop dat er iemand even naar zou willen kijken. alvast enorm bedankt
Al sinds dat mijn site de lucht in is heb ik last van enorm veel crawlfouten en ik weet nu echt niet meer wat te doen dus vandaar dat ik toch maar jullie hulp in roep.
Het gaat om de volgende fouten:
7 http:
in sitemap 27
niet bereikbaar 2
niet gevonden maarliefst 101
verboden door robots.txt 4
zachte 404 1
Bij deze heb ik de fouten geupload per categorie. Bij deze de bijlages ( heb er txt bestanden van gemaakt):
Bekijk bijlage crawlfouten.txtBekijk bijlage Webcrawl_errors_Zachte_404's_www_dates-online_nl_20110215T113057Z.txtBekijk bijlage Webcrawl_errors_Verboden_door_robots.txtBekijk bijlage Webcrawl_errors_Niet_bereikbaar_www_dates-online_nl_20110215T113043Z.txtBekijk bijlage Webcrawl_errors_In_sitemaps_www_dates-online_nl_20110215T113033Z.txt
Nu heb ik het idee dat het door 2 dingen komt:
1- de sitemap ( deze heb ik wel zojuist even aangepast met xmap in joomla) de sitemap geeft nu in plaats van 149 pagina's 23 pagina's dus misschien is dit ook beter
2- robots.txt
( dit is de robots.txt)
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
allow: /images/
En vast ook nog wel door iets anders maar zou niet weten wat, daar ik er niet veel verstand van hebt.
Wie o wie weet er een oplossing waardoor in ieder geval de meeste fouten weg worden gewerkt, want dit is wel heel erg vind ik.
Ik hoop dat er iemand even naar zou willen kijken. alvast enorm bedankt
Laatst bewerkt: