Google Sitemaps - eller standard XML-sitemaps, som det faktisk er i dag, vil jeg normalt ikke anbefale, at man benytter.
Særligt Google har ellers gjort meget for at reklamere for brugen af disse XML-sitemaps. Men faktum er, at det som regel gavner Google mere, end det gavner det enkelte website - og meget ofte kan det direkte skade de websites, der bruger dem!
Så hvis du er mest interesseret i at hjælpe Google - så skal du bruge XML-sitemaps. Er du derimod lidt mere "egoistisk", og tænker mere på dit eget website og din virksomheds succes, så skal du ikke bruge XML-sitemaps!
Men lad os starte med at se lidt nærmere på, hvordan det hjælper Google, og de andre søgemaskiner, der understøtter den fælles protokol for XML-sitemaps. Du kan læse mere om protokollen her.
Hvordan?
Der er fortsat meget store mængder godt indhold på nettet, som det er svært for søgemaskinerne at finde frem til. Det skyldes ofte, at indholdet ligger "gemt" bag formularer og søgemekanismer, der er designet alene til mennesker. Søgemaskinerne kan, sådan lidt forenklet sagt, ikke klikke sig frem til unikke URL'er, der viser sådant indhold.
Med XML-sitemaps får søgemaskinerne en let tilgængelig og velstruktureret oversigt over alle sider på et website, som egner sig til indeksering. Så er det bare at løbe listen igennem og samle indholdet sammen. Det gør det meget lettere for søgemaskinerne at finde frem til det hele. Så langt så godt.
Men det betyder på ingen måde, at søgemaskinerne så rent faktisk tager alle sider med. Brugen af XML-sitemaps giver ingen garanti for, at alle siderne på et website bliver indekseret. Langt fra!
I gamle dage - det vil sige for få år siden, tog søgemaskinerne stort set alt det indhold, de kunne finde på nettet med i deres indekser. Sådan er det ikke i dag. Dels er der meget mere skidt og møg og gentagelser af det samme indhold i dag. Og dels er der inden for mange brancher et alt for stort udbud og alt for stort spring mellem det bedste og det værste. Man laver ganske enkelt ikke en god søgemaskine ved at tage det hele med.
Det, der er mest afgørende for, hvor mange sider søgemaskinerne rent faktisk medtager, er, hvor populært dit website er. Dette måles hovedsageligt ved hjælp af komplekse linkstruktur-analyser af hele nettet. Groft sagt får de websites med flest links fra andre sites flest sider indekseret. Du får ikke i dag et website med 100.000 sider indekseret, hvis der blot er to andre websites, der linker til det - sådan lidt forenklet sagt.
Og det er ligegyldigt, om du bruger XML-sitemaps eller ej. XML-sitemaps er som sagt ikke et inkluderingsprogram - det er blot en standard for en oversigt, som søgemaskinerne så kan vælge at bruge i sin helhed eller dele heraf. Hvis de har lyst.
Problemet er bare...
Men det er kun en lille del af problemet med XML-sitemaps. Der er andre og mere alvorlige problemer.
Det mest alvorlige problem er, at brugen af XML-sitemaps kan gøre det svært, eller helt umuligt at opdage fejl eller mangler på dit website - fejl der gør, at søgemaskinerne ikke via almindelige links kan finde frem til bestemte sider på dit website.
Hvis du bruger XML-sitemaps er det muligt, at søgemaskinerne indekserer de sider, de ikke naturligt kan finde på baggrund af informationerne i XML-sitemap'et. Og da du ikke kan se, hvorfor en side er indekseret - når først den er blevet det, så kan du heller ikke efterfølgende se, at søgemaskinerne faktisk slet ikke kunne finde den pågældende side naturligt via links fra andre sider på dit eller andres websites.
Problemet er så, at fordi søgemaskinerne er så link-orienterede, som de er, så er der i praksis ekstrem lille sandsynlighed for, at en side, som søgemaskinerne ingen naturlige links finder til, vil ranke på noget som helst. Og da slet ikke noget, som der er mange, der søger på.
Det er derfor meget vigtigt, at kunne identificere sådanne "fejl". Måske er problemet bare, at du helt har glemt at linke til siden selv på dit website. Måske er der en fejl i lige det ene link, der er. Måske er linket i et format, søgemaskinerne har svært ved at læse (f.eks. JavaScript eller Flash). Måske er det ikke medtaget på dit almindelige HTML-sitemap (hvilket jeg kommer tilbage til lige om lidt ...).
Der kan være mange grunde til, at søgemaskinerne ikke naturligt finder frem til en side. Men når først problemet er identificeret, så kan det som regel også gøres noget ved det. Problemet er, hvis man ikke kan identificere problemet - at man slet ikke opdager det.
Et andet problem er, at der altid har hersket en velfunderet teori om, at de sider som søgemaskinerne finder af sig selv - typisk via referencer fra andre websites, bliver vægtet højere, alt andet lige, end sider, som sådan lidt groft sagt bliver presset ned i halsen på søgemaskinerne. Uanset om det så er gennem de gammeldags "tilmeld website" formularer, eller XML-sitemaps.
Det har altid været så godt som umuligt at bevise denne teori med 100 procent sikkerhed. Men udover, at der er meget, der gennem tiden, har tydet på, at dette er en korrekt teori, så er den også helt logisk, synes jeg. For det er da klart, at websites, der glimrer så meget ved deres eksistens, at søgemaskinerne naturligt støder ind i dem på deres vej, kan antages (sådan gennemsnitligt) at være bedre end dem, de ikke støder naturligt på, og kun finder ud af eksisterer, fordi ejeren fortæller dem det.
Det sidste problem, jeg vil nævne i denne omgang, handler om, at jeg har oplevet mange forskellige hastigheder på optagelse af nye websider via XML-sitemaps. I nogle få tilfælde har jeg oplevet en markant langsommere optagelse af nye sider på et website der brugte XML-sitemaps end det under alle andre omstændigheder ville have taget. Den type "fejl" hos søgemaskinerne sker nok ikke så tit med XML-sitemaps, men taget alle de andre ting i betragtning ser jeg bare ikke noget formål med at løbe den ekstra risiko.
To "sitemap" or not to "sitemap"
Jeg lovede også lige, at fortælle lidt om almindelige traditionelle HTML-sitemaps. De har som sådan intet med XML-sitemaps at gøre - bortset fra, at begge dele er en form for kort over dit website med henvisninger til alle sider.
HTML-sitemaps er almindelige websider, hvor der linkes til alle undersiderne på dit website. Hvis det er et stort website opdeles sitemaps som regel over flere sider, da søgemaskinerne ikke altid følger mere end 100 links fra hver side. Alt for store sider er også svære at overskue for almindelige brugere.
Almindelige sitemaps har jeg altid anbefalet folk at lave - og gør det fortsat. De kan sammen med de øvrige navigationsfunktioner være med til at danne en god navigationsstruktur på et website. Der er ganske vidst ikke så mange almindelige brugere, der benytter sitemaps, men de få, der gør, er glade for dem - og så kan søgemaskinerne også bruge dem.
Pointen er, at der ikke er meget værdi i at få en masse sider indekseret i søgemaskinerne - og det er det eneste, som XML-sitemaps potentielt set kan hjælpe dig med, hvis ikke også disse sider ranker på nogle af de ord, som er relevante for siden.
Google har glæde af at få flere sider indekseret - de kan prale af et mere "komplet" indeks - men det er uden værdi for dig, hvis ikke de ekstra indekserede sider også fører til, at der faktisk er nogle, der finder dem og klikker sig ind på dem.
Derfor bør al din fokus ligge på, at "inspirere" søgemaskinerne til "naturligt" at finde frem til dit website og alle siderne på det frem for at spilde tiden med XML-sitemaps. Det giver i hvert fald dig de bedste resultater - den bedste markedsføringseffekt. Og på trods af at mange elsker Google, så er jeg fortsat af den overbevisning, at de fleste website-ejere trods alt elsker deres eget website og deres egen forretning mere.
___
Mikkel deMib Svendsen er kreativ direktør i SEO Supporten og deMib.com.