Avatar billede bibliotekarens Nybegynder
26. april 2006 - 18:42 Der er 4 kommentarer og
2 løsninger

Hvad kan søgemaskiner finde?

Hej eksperter
Jeg mener at have læst et sted at visse søgemaskiner godt kan finde filer selvom der ikke er linket til dem overhovedet - det er noget med at de kan lede i "registrene" - eller de der filoversigter, der er på serverne. Er der én, der kan forklare lidt nærmere om dette?

Hvad kan man gøre for at sikre at absolut ingen læser fx et dokument man har liggende? Er man nødt til at passwordbeskytte filerne eller kan man nøjes med at sætte rettigheder på mapperne?
Avatar billede eric-pedersen Nybegynder
26. april 2006 - 18:56 #1
Umiddelbart.... Så nej.... De kan ikke finde dokumenter uden videre, medmindre der linkes....

Der er nogle webhoteller som understøtter google sitemap, og laver aftomatisk index til google, men jeg har ikke hørt om nogle som medtager alle filer der er i biblioteket, og som der ikke er linket til
Avatar billede madx Nybegynder
26. april 2006 - 19:03 #2
Google m.fl. lever af links og indholdet de finder via links, de kan ikke finde indhold uden henvisninger via links

De er så til gengæld blevet dygtigere til at finde links - og gemt i javascripts, men det er stadig links der er fundamentet

-> eric-pedersen, interesant detalje med de der webhoteller, der leverer et sitemap - hvem skal man kigge efter?
Avatar billede bufferzone Praktikant
26. april 2006 - 21:20 #3
Læs denne artikel, det vil løbe dig kolt ned at ryggen

http://www.eksperten.dk/artikler/224
Avatar billede bibliotekarens Nybegynder
27. april 2006 - 23:26 #4
Nu har jeg læst den spændende artikel, men er ikke sikker på at jeg helt har forstået det...

Hvis man fx har en wordfil liggende på en webserver - der ikke er linket til - så kan google alligevel finde den ved fx url-søgningen?

Det der med directory listing - er det noget man selv kan "slå fra" - altså ved at sætte rettigheder på en mappe eller sådan noget?

Nu er google jo heller ikke den eneste søgemaskine der findes... jeg synes, jeg har hørt om andre der ikke respekterer robot.txt filerne og altså alligevel kigger hele biblioteket igennem.

Håber I har lyst til at uddybe lidt... :-)
Avatar billede bufferzone Praktikant
28. april 2006 - 08:48 #5
Hvis den mappe word filer ligger i, indgår i en af dine links (dvs google har mulighed for at læse navnet. gæægle kan ikke selv gætte navnene på biblioteket) og din server tillader directory listings, så vil du kunne finde dit dokument i google.

Directory listing kan slås fra

Der er mange søgemaskiner der ikke overholder robots.txt.

Rådet er. hvis du ikke vil kunn læse dine dokumenter på nettet sammen med resten af verden, så skal de ikke befinde sig på en web server eller anden server der betjener offentligheden.
Avatar billede bibliotekarens Nybegynder
28. april 2006 - 14:23 #6
mange tak for hjælpen - bufferzones svar var klart det bedste og mest uddybende.
-det virker som om du virkelig ved hvad du snakker om :-)
Derfor får du pointene.
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
IT-kurser om Microsoft 365, sikkerhed, personlig vækst, udvikling, digital markedsføring, grafisk design, SAP og forretningsanalyse.

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester



IT-JOB

De Nationale Geologiske Undersøgelser for Danmark og Grønland (GEUS)

IT-systemadministrator søges til GEUS

Udviklings- og Forenklingsstyrelsen

Erfaren udvikler/DevOps til Integrationsplatforme

RISMA Systems A/S

Senior PHP-udvikler