Leder du efter en almindelig robots.txt som pænt beder søge robotterne køre uden om eller noget kode som sender en fejl kode til søge robotter den genkender?
Det første - google robots.txt
Det andet - fortæl os hvilket sprog og hvilken UA den pågældende robot bruger
brug robots.txt hvor du forbyder alle robotter alt. Ovenstående er dog ikke 100 % de blokkerer kun de robotter der overholder standarderne, ikke bandit robotter.
Alternativt er at lave login og validerer alle sider op mod dette login. Du kan også lave en slags Captcha løsning på dine sider
Og du kan lave redirect på useragent og så sende søgebotterne et andet sted hen
Okay, er det bare mig, eller mangler den fane ikke, som hedder "Generer robots.txt" på google webmastercentral?
Synes godt om
Ny brugerNybegynder
Din løsning...
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.