Klumme: Går du glip af kvalificeret trafik på dit website?

Det er vigtigt at stille krav til sin Internet-løsning, skriver Torben Grue og Rasmus Sørensen fra Notabene.net i denne klumme.

Mange virksomheder og organisationer har valgt at benytte Content Management Systems
(CMS), når informationerne på websitet skal opdateres. Disse systemer er fantastiske, idet de muliggør,
at de forskellige ansvarlige indholdsleverandører netop kan opdatere den del af websitet, de er ansvarlige
for.



Dette sker uden, at de ansvarlige skal have kendskab til HTML eller andre programmer, og webmasteren
undgår at blive flaskehals i opdateringsprocessen.



Der findes mange udbydere af Content Management Systemer bl.a. Synkron, Web500
,
WEB in @ Box,
Site in a box, m.fl.



Problemet med de fleste CMS løsninger er, at websites baseret på disse løsninger ikke kan blive
fundet gennem søgemaskiner som f.eks. Excite, AltaVista, Google
eller på danske søgemaskiner som f.eks. AltaVista Danmark, Albot eller Opasia
.



Dette skyldes bla., at systemerne ofte baserer sig på databaseløsninger oftest
opbygget i frames, hvor de forskellige indholdssider hentes ind i en foruddefineret skabelon og derefter vises
for brugerne inde i denne skabelon.

Teknikken bag din internet løsning kan gøre dit website usynligt
på søgemaskinerne

For at forstå, hvorfor den tekniske platform har betydning for trafikken
fra søgemaskinerne, må man kende til de forskellige typer af søgemaskiner.



Overordnet er der 2 typer – kataloger og robotsøgemaskiner.



Den mest karakteristiske forskel mellem disse 2 er, at kataloger som
Jubii.dk og
Yahoo.com normalt kun optager en enkelt side (selve
domænet), hvorimod robotsøgemaskiner som Altavista.com
og Google.com
i princippet kan indeksere alle siderne på et website.



Katalogerne opbygges af mennesker, som gennemgår alle tilmeldinger og placerer dem i de rette kategorier
med de foreslåede titler og beskrivelser. Søgemaskiner opbygger derimod deres databaser ved hjælp
af robotter – spidere (edderkopper), der er små programmer.



Disse programmer afsøger Internettet og indekserer (dvs. læser og gemmer informationerne i en database)
de mange sider, de støder ind i, enten gennem links fra andre websites eller gennem en aktiv tilmelding
på søgemaskinens eget website. Når en bruger derefter søger i en søgemaskine,
sendes forespørgslen ned i databasen, der returnerer de sider, som søgemaskinen finder mest relevante
i forhold til det søgte.

Hvordan bliver dit website synligt på søgemaskinerne?

At opnå synlighed og en god placering på robotsøgemaskiner
kræver, at man kender de mønstre/algoritmer, den enkelte søgemaskines robot bruger. Hvis man
ved, hvad søgemaskinen ser efter ved vurdering af relevansen af de enkelte sider – kan man opbygge og præsentere
sit website og dets indhold i forhold til denne tankegang.



Man kan dermed skabe trafik fra søgemaskinen ud fra det indhold og de søgeord,
som man allerede har på sit website.



Der spiller imidlertid utroligt mange elementer ind i søgemaskinernes relevansvurdering
mellem de mange websites, som præsenteres i søgemaskinernes resultater. Disse elementer kan være,
om websitet er opbygget med eller uden frames, hvilke titler og meta tags de enkelte sider indeholder, om der er
brugt flad HTML, Flash eller dynamisk generede sider, som ved Content Management Systemer - og meget mere.



Læs artiklen
Søgemaskiner skal i medieplanen
for mere
information om søgemaskiner som trafikskabende medie.


De hårde facts: Forskellen på succes og fiasko

For at behandle dette er man nødt til at gøre sig klart, hvad søgemaskinernes
robotter egentlig foretager sig, når den besøger et website.



Robotter kan nemlig kun 2 ting: Læse
tekst og følge links




Tekst og links findes i selve kildekoden på websitet. Det er altså ikke
ensbetydende med, at et link, som brugeren kan klikke på, er et link som spideren kan læse og følge.
Det er derfor uhyre vigtigt at give søgemaskinen mulighed for at gøre netop disse 2 ting.



Som nævnt ovenfor er selve websitets opbygning udslagsgivende for, om et website
overhovedet kan indekseres og dermed gøres synligt for brugerne i søgeresultaterne.



Det afhænger i høj grad af, hvilket valg der er truffet ved udarbejdelse
af løsningen, eller hvilket content management system, der er anvendt ved udarbejdelsen af sitet, om søgemaskinens
robot kan finde rundt på sitet og læse teksten og følge de rette links.



En forkert løsning kan betyde, at allerede udarbejdet indhold ikke bruges
aktivt og dermed ikke kan findes af brugerne på søgemaskinerne. Det er potentielle besøgende
dit website går glip af!



Vi vil her opridse nogle af de væsentligste problemer ved de enkelte løsninger
og afslutningsvis give vores anbefalinger til mulige løsninger.


Frames…Tør du bruge dem?

Frames eller ”rammer” anvendes ofte med det argument, at navigeringen gøres
nemmere for brugeren, ved at en menu eller lignende kan være synlig for brugeren hele tiden.



Ud fra et søgemaskineoptimerings synspunkt kan anvendelse af frames dog være
katastrofalt.



Dette skyldes primært, at et website, hvor denne metode anvendes, på
mange søgemaskiner kun vil blive optaget med 1 titel og 1 beskrivelse, idet søgemaskinen opfatter
selve rammen som en fil, og ikke kan læse indholdssiderne, som puttes ind i rammen.



De søgemaskiner, som kan læse rammer, læser indholdssiderne, men
kan ikke relatere indholdssiderne til menu-rammen eller andre indholdssider. Det kan have den konsekvens, at brugeren
ikke navigerer videre rundt på sitet, hvorfor han sikkert lukker sin browser igen.



Dynamiske websites eller Content Management Systemer

Ser adresserne på dit website således ud:



http://www.backpacker.dk/magasinet/artikler/nye.asp?id=363


Eller indeholder det andre tegn som $, & eller #, så har du sandsynligvis et
databasegenereret website.



Dynamiske eller databasegenerede websites udgør som tidligere nævnt
et problem på søgemaskinerne.



Dette skyldes, at websites opbygget omkring en database ofte kun eksisterer i det
øjeblik, hvor en bruger bevæger sig rundt på siderne. En bruger, som beder om en side, laver
dermed en forespørgsel i databasen på det indhold og de elementer, som indgår i netop denne
forespørgsel. Man kan sige, at websitet tilpasser sig brugerens forespørgsel.



Denne forespørgsel kan en søgemaskines robot ikke foretage, eller også
ønsker den ikke at gøre det, eftersom den ikke ved, hvor mange sider der befinder sig i databasen.



Dette bevirker, at søgemaskinen faktisk ikke kan/vil finde siderne på
websitet og dermed optage dem i dens database. Dette har den alvorlige konsekvens, at indholdet ikke bliver tilgængeligt
ved søgninger på søgemaskinen, hvorfor brugerne ikke kan finde og besøge det pågældende
website. Websitet går dermed glip af kvalificerede besøgende og potentielle kunder.


Multimedie websites: visuelt flot indhold, men ingen tekst til robotten

Problematikken omkring multimedie websites drejer sig også om søgemaskinerobotternes
besværligheder med at bevæge sig rundt på websitet og indsamle informationer om indholdet. Den
tekst og de links, som brugeren kan se og læse, som vises på f.eks. et site udarbejdet i Flash, kan
ikke læses af robotten. Dette skyldes, at Flash udarbejdes grafisk og ikke er almindelig indekserbar html
kode.


Jamen hva’ så?

Hvad gør man så, hvis man står i den situation, at websitet
er en dynamisk løsning eller kun består af grafik ?



Der er forskellige løsningsmuligheder, hvis man er ”ejer” af et website, der
ikke kan indekseres og dermed blive fundet af brugerne på søgemaskinerne.



Det vigtigste
er at stille krav til den løsning, der udarbejdes, således at den tager hensyn til problematikken.



Det er vigtigt at vurdere, hvilke informationer, der er vigtige at opdatere og derfor
skal befinde sig i en database (eller præsenteres i Flash). Hvis kun 5% af indholdet opdateres ofte, så
lad de 95% ligge som statisk information og gør dem dermed indekserbare for robotterne.



Hvis der benyttes en 100% databaseløsning og der sker et databasekald på
hver indholdsside, så stil krav om, at de adresser der ses i browseren er læsbare af søgemaskiner
og ikke indeholder tegn som ?, & eller #. Et eksempel kunne være:



http://www.firmanavn.dk/default.asp?id=11



Siden burde hedde:



http://www.firmanavn.dk/default.asp



Stil krav til selve opbygningen af enkeltsiderne, således at de kan indekseres.
Benyt kun frames, hvis det er nødvendigt.

Tabeller - lang vej for robotten til interessant tekst

Stil krav til, at tabeller opbygges, således at content (selve informationen
på siden) læses før eksempelvis menuen af søgemaskinernes spidere. På den måde
kan du undgå nedenstående eksempel fra Altavista.dk.








Backpacker -
Guide - Jorden Rundt


Guiden. Planlægning. @165, 19. august. Magasinet. -forsiden -artikler
/ tema -artikler / lande -10 spørgsmål -folk på tur -galleri -konkurrencen......

http://www.backpacker.dk/guiden/foer_rejsen/default.asp



Her ses datoen og menuen som beskrivelse, og dette fortæller ikke meget om
sidens indhold. Dette kunne have været undgået, hvis sidens tabeller var blevet opbygget på den
rigtige måde.

Løsningen på problemet

En løsning på de ovenstående problemer er optimering af de
eksisterende sider, således at de bliver mere spiselige i forhold til søgemaskinerne - samt at de
indeholder den rigtige information.



Ligeledes er det muligt at anvende såkaldte doorways. Doorways er specialsider,
hvor et bestemt søgeord er nævnt, i forhold til en forudgående analyse af konkurrerende sider,
et bestemt antal gange i titler, beskrivelser, indhold og andre steder på siden. Doorways bliver lavet for
søgemaskinernes skyld og er usynlige for brugerne, der automatisk henvises til siden med den oprindelige
information.



Som det ses af ovenstående, er det muligt at opnå placeringer i søgemaskiner
på sites gennem alternative løsninger som ekstra optimering af eksisterende sider eller doorways.



Men den optimale løsning vil altid være at stille de rigtige spørgsmål
og krav ved opbygningen af et website. Hvis der allerede under udarbejdelsen tages hensyn til søgemaskineoptimering,
kan det undgås, at der efterfølgende skal laves kostbar ”brandslukning”, når ens sider overhovedet
ikke kan findes på søgemaskinerne.



Det er desværre oftest det sidste, der er tilfældet.



Torben Grue og Rasmus Sørensen er account managers hos Notabene.net.
Hvis du har spørgsmål eller kommentarer til denne artikel, er du velkommen til at sende en mail til
dem på hhv. tg@notabene.net og rs@notabene.net.




Brancheguiden
Brancheguide logo
Opdateres dagligt:
Den største og
mest komplette
oversigt
over danske
it-virksomheder
Hvad kan de? Hvor store er de? Hvor bor de?
Despec Denmark A/S
Distributør af forbrugsstoffer, printere, it-tilbehør, mobility-tilbehør, ergonomiske produkter, kontor-maskiner og -tilbehør.

Nøgletal og mere info om virksomheden
Skal din virksomhed med i Guiden? Klik her

Kommende events
Bliv klar til AI Act: Det vil påvirke både din udvikling, drift og organisation

Fordelene ved at anvende kunstig intelligens bliver stadig mere udtalte, og både som virksomhed og myndighed er det i stigende grad uholdbart ikke at udforske mulighederne. Men der er også risici forbundet på den nye teknologi, og på dette formiddagsseminar ser vi på, hvordan verdens første regulatoriske kompleks – EUs kommende AI Act – adresserer behovet for en etisk, ansvarlig og kontrolleret anvendelse af AI.

20. august 2024 | Læs mere


Det Digitale Produktpas

Kom med og hør om, hvordan du kommer i gang med at sikre din virksomhed er klar til Det Digitale Produktpas. Vi sætter fokus på, hvordan du bliver klædt på til at få styr og struktur på dine data, samt hvilke krav du skal sætte til dine leverandører og andre i din værdikæde, for at sikre den nødvendige information er tilgængelig.

21. august 2024 | Læs mere


Cyber Security Summit 2024

På Cyber Security Summit får du indsigt i det aktuelle trusselslandskab, overblikket over de nyeste værktøjer og trends indenfor sikkerhedsløsninger, indsigt i de relevante rammeværktøjer og krav samt de bedste løsninger og værktøjer til at sikre effektiv drift og høj compliance.

27. august 2024 | Læs mere