Prive bestanden in mappen met random namen

Status
Niet open voor verdere reacties.
Zolang ze de namen niet weten, is het vrij lastig om zoiets te vinden (tenzij je natuurlijk automatisch de lijst met filenames laat genereren, dus dat zou ik wel uit zetten)

Maar heel erg privé is het niet; als iemand die link post kan alsnog iedereen er gewoon bij. En als de links ergens op het web beschikbaar zijn, kan het ook zijn dat zoekmachines het gaan indexen.

Je kunt er beter een wachtwoord voorzetten als je het echt privé wil hebben.
 
Zolang ze de namen niet weten, is het vrij lastig om zoiets te vinden
Klopt het dat zowel gebruikers als zoekmachines alleen maar lukraak urls kunnen uitproberen, tot ze bij toeval op een bestaande map stuiten?
(tenzij je natuurlijk automatisch de lijst met filenames laat genereren, dus dat zou ik wel uit zetten)
Waar kan ik verifieren of dit uit staat en eventueel uit zetten?
Ik merk wel dat ik, als ik de url bij zo'n tussenliggende map intyp, terugkrijg: "The website declined to show this webpage".

Wat die wachtwoorden betreft: dat weet ik en het staat op mijn todo-lijstje. Maar voor het delen van een paar home video's met vrienden leek dit mij wel even goed genoeg.
 
Laatst bewerkt:
Klopt het dat zowel gebruikers als zoekmachines alleen maar lukraak urls kunnen uitproberen, tot ze bij toeval op een bestaande map stuiten?
Gebruikers kunnen dat natuurlijk wel als ze willen maar of ze dat ook doen...
Bots van zoekmachines doen het niet, die volgen gewoon links die ze ergens tegenkomen, ze verzinnen zelf geen URLs, voor zover bekend, een groot deel van de werking van bots is natuurlijk bedrijfsgeheim. Als jij dus ergens op een openbare pagina een link hebt staan naar jouw verborgen map, dan kan een bot die link volgen en vervolgens de verborgen map indexeren. Daarna kan iedereen de map vinden via de betreffende zoekmachine. Dit kun je voorkomen door in je url rel="nofollow" te gebruiken. Op deze manier.
HTML:
<a href="http://www.site.nl/geheimemap/" rel="nofollow">Geheime map</a>
Dit houdt google's bots buiten de deur, van andere zoekmachines weet ik het niet. Een wat betrouwbaarder methode is om een robots.txt bestand aan je site toe te voegen. Daarmee kun je bots vertellen waar ze wel en niet mogen komen.
http://nl.wikipedia.org/wiki/Robots_Exclusion_Protocol
 
Bedankt allemaal, ik weet genoeg.:)

Het lijkt me bruikbaar voor niet al te grote staatsgeheimen, mits je niet elders een link aanmaakt.
 
'n Paar kleine aanvullingen over spiders. De spider van Google probeert, om wat voor reden dan ook, wel soms lukrake namen uit bij sites. Dat staat vast, maar wat de reden daarvan is, is volstrekt onduidelijk. Het zou kunnen gaan om het uitgebreid testen van 'n 404 of zoiets, maar dat is speculatie.
Bij 'n nofollow wordt de link nog wel gevolgd, maar er wordt geen enkele waarde meer aan toegekend. Hij werkt dus niet mee om de site waar je naartoe linkt hoger in de zoekindex te krijgen, maar verder blijft het 'n gewone link.
robots.txt is niet voldoende. Als 'n pagina rechtstreeks door 'n spider wordt benaderd, bijvoorbeeld via 'n link, wordt robots.txt helemaal niet gelezen. Dat gebeurt alleen maar als de bot via de hoofdingang binnenkomt, zeg maar.
Om te voorkomen dat de pagina wordt geïndexeerd, moet je in de pagina zelf in de head
HTML:
<meta name = "robots" content="noindex, nofollow">
zetten. Google, Bing en Yahoo! houden zich daaraan, maar bijvoorbeeld Baidu schijnt zich er niets van aan te trekken.
 
Status
Niet open voor verdere reacties.
Terug
Bovenaan Onderaan