Heeft Google regels voor hoeveel pagina's worden opgenomen van je website?

Status
Niet open voor verdere reacties.

Crypt545

Gebruiker
Lid geworden
16 jun 2009
Berichten
352
Ik heb een blog met rank 2 die nu zo'n 4 maanden oud is. Ik heb zo'n 700 pagina's en Google heeft er maar 420 opgenomen.

Deze maand heb ik 2 nieuwe posts geplaatst, de eerste is gewoon niet opgenomen en de 2de kon ik een uur later al op google vinden.

Nou wil ik wel een rss feed gaan maken wat me vreselijk veel tijd gaat kosten maar ik heb dus het idee dat google gewoon geen zin heeft om al mijn pagina's te indexeren en dat het vergeefse moeite is.

Is dat wat er aan de hand is? Is mijn pagina nog niet populair genoeg voor googe om zoveel pagina's op te nemen?

Ik wordt niet goed van die stomme zoekmachine! Ze hebben het monopolie tegenwoordig en zouden dus ook weleens verplicht wat goede info kunnen geven sinds internet alleen maar het belangrijkste dingetje op aarde is momenteel...
 
Ja Falcojugger mijn vraag staat daar al sinds 3 maanden 4x en niemand die me verder helpt.

Das een handige link fritzi!

Ik begrijp dat ik dus gewoon een simpel tekstbestand door kan sturen met alleen maar al mijn URl's daarin?

Er zijn een aantal hulpprogramma's van derden waarmee u sitemaps kunt genereren. Naast de bovenstaande standaardindeling accepteert Google ook de volgende sitemaps:

* RSS, mRSS en Atom 1.0: Google accepteert RSS (Real Simple Syndication) 2.0- en Atom 1.0-feeds. Als u een blog heeft met een RSS- of Atom-feed, kunt u de URL van deze feed aanmelden als een sitemap. De meeste blogsoftware maakt zelf een feed voor u aan. Houd er rekening mee dat de feed alleen informatie mag verschaffen over recente URL's.
* Tekstbestand: u kunt Google een eenvoudig tekstbestand leveren dat één URL per regel bevat. Bijvoorbeeld:

http://www.example.com/bestand1.html
http://www.example.com/bestand2.html


Voor de beste resultaten volgt u deze aanwijzingen:
o U moet volledige URL's opgeven omdat Google de URL's crawlt die u opgeeft.
o Voor het tekstbestand moet de codering 'UTF-8' worden gebruikt.
o Het tekstbestand moet niets anders bevatten dan de lijst met URL's.
o U kunt het tekstbestand elke gewenste naam geven. Google raadt u aan om het bestand de extensie .txt te geven (bijvoorbeeld sitemap.txt).

Dat is natuurlijk niet zoveel werk!

De vraag is dus alleen of google hier iets mee doet. Ook kan ik geen bestanden op mijn server zetten, is het een probleem als ik dat txt bestand op een geocities account ofzo zet?
 

Dit was een interessante link maar helpt me niet verder.

1: met site:mijndomein vind google 470 pagina's
2: mijn pagina is al gevonden door google
3: Al mijn html pagina's hebben een link op de hoofdpagina en niks geen dieperliggende content dus zou hij gewoon moeten vinden.
4: Heb geen noindex tags in mijn html
5: Duplicate content zou kunnen in een enkel geval maar is niet wat er aan de hand is.

Ook zitten er geen html fouten in ofzo, het is gewoon een blog van google en dat zit allemaal perfect in elkaar, nee dat rotding indexeerd met opzet 1/3 van mijn content niet en ik snap echt niet waarom. Heb een 2de blog dat nu al heel aardig loopt en daar wordt wel alles geindexeerd tot nu toe maar deze is veel kleiner.
 
Ik ben wel benieuwd om welke site het gaat, nu kunnen we alleen algemene antwoorden geven. :)
 
Er is geen antwoord behalve dat ik een sitemap nodig heb. Blogger heeft een soort van minisitemap met een paar recente posts erin. In totaal goed voor 27 pagina's en dus waardeloos maar hierin stonden wel een paar pagina's die niet waren opgenomen en nu dus wel nadat ik die link aan webmasterhulpprogramma heb toegevoegd.

Ik moet dus een sitemap hebben maar dat is niet mogelijk met google blog. Totaal achterlijk, hun eigen blog service?!

Oplossing is een andere blog te nemen of een eigen domein en alles opnieuwe doen, niet echt waar ik op zit te wachten.

Mijn website voor geinteresseerden:
http://shotgunsolutionpaytodie.blogspot.com/
 
Status
Niet open voor verdere reacties.
Terug
Bovenaan Onderaan