Nettets kolde krig

Søgemaskiner og hjemmeside-ejere er fanget på hver sin side i et evigt oprustningskapløb på Nettet.

Størrelsen er ikke det vigtigste, når det gælder Nettets søgemaskiner. En undersøgelse, som blev offentliggjort i fagbladet Nature tidligere på året, viste at søgemaskinerne ikke kan følge med Nettets enorme vækst. Men undersøgelsen, som blev gennemført af Dr. Steve Lawrence og Dr. C. Lee Giles fra det amerikanske NEC Research Institute i Princeton, bliver nu kritiseret for at stille søgemaskinerne i et forkert lys. Forskerne gennemførte en lignende undersøgelse i 1998, som blev offentliggjort i fagbladet Science, og konkluderer ved at sammenligne resultaterne, at søgemaskinerne er blevet dårligere til at indeksere web-sider.

Men det er måske kun den halve sandhed. I det anerkendte Internet-nyhedsbrev Search Engine Report (http://www.searchenginewatch.com/sereport/current.html) kritiseres forskerne, fordi de har anvendt forskellige målemetoder til optælling af Nettets omfang i den første og anden undersøgelse.

Nettets størrelse

I den seneste undersøgelse har forskerne fra NEC Research Institute brugt forskellige teknikker til at tælle det totale antal servere på Nettet (2.8 millioner). Derefter har de regnet sig frem til, at der i gennemsnit ligger 289 sider på hver server. Resultatet er, at Nettet må indeholde omkring 800 mio. sider. I deres første undersøgelse benyttede forskerne helt andre metoder, og der stilles derfor spørgsmålstegn ved, om resultaterne kan sammenlignes. Mikkel Svendsen, som er moderator hos det amerikanske Search Engine Forums (http://www.searchengineforums.com) og forfatter til en kommende bog om søgemaskiner, kritiserer også undersøgelsen.

"Det er temmelig uvidenskabeligt at forholde sig til to resultater der ikke er opnået efter samme principper. Således kan alle tal, der forholder sig til forskellen mellem størrelsen på Nettet i den gamle
undersøgelse og den nye ikke bruges til så meget. De konklusioner der fortæller, at søgemaskinerne er blevet meget dårligere til at indeksere
Nettet er ikke nødvendigvis korrekte," siger Mikkel Svendsen.


Han erkender dog, at søgemaskinerne muligvis er blevet dårligere til at
indeksere Nettet. Men det egentlige spørgsmål er ikke, hvor stor en del
af Nettet der er indekseret, men hvilken del der er, mener han. Det
hjælper ikke at indeksere flere sider, hvis de ikke er relevante,
ligesom det heller ikke vil gøre søgemaskinerne bedre.


"Vil det hjælpe den almindelige Net-bruger at han i stedet for 2.365.000
resultater på en søgning i AltaVista på f.eks. "rock music" får
23.965.000 resultater? Svaret er nej," siger Mikkel Svendsen.


Undersøgelsen kritiseres for at være uvidenskabelig, og skabe unødvendig
forvirring i en tid, hvor relevans snarere end størrelse er i centrum.
Ideen om at det er muligt at samle hele Nettet i samme søgemaskine
holder ikke, mener Mikkel Svendsen.


"Vi kommer ikke til at se søgemaskiner der har hele Nettet indekseret i
en enkel database - i hvert fald ikke foreløbigt. Investeringerne til en
så stor udvidelse af databaser og serverkrafter vil blive så voldsomme,
at de aldrig kan forsvares alene med den reklameeffekt det giver
søgemaskinerne at være størst. Specielt når der yderligere ses på, at en
sådan total indeksering af Nettet i praksis vil gøre søgemaskinerne
ringere end i dag, til det de skal gøre: nemlig at finde relevante sider
frem til brugerne," siger han.


Relevans


Det vigtigste spørgsmål er derfor ikke databasens størrelse - altså det
totale antal web-sider, som er indekseret - men de søgemetoder, som
benyttes til at finde relevante resultater. Hvad nytter det, hvis man
kan søge i en database med 150 mio. sider, men kun får ubrugelige
resultater - eller, endnu værre, skal klikke sig gennem hundredevis af
resultater, inden man finder det ønskede? Lige siden de første
Internet-søgemaskiner har der været en konflikt mellem
hjemmeside-ejerne - som naturligvis ønsker, at deres side skal fremkomme
øverst, når man søger på et bestemt søgeord - og firmaerne bag
søgeprogrammerne, som forsøger at holde den nøjagtige funktionsmåde
hemmelig.


Men det varer sjældent ret længe, før nye søgeprogrammer bliver
"knækket", dvs. smarte programmører finder ud af, hvad man skal gøre,
for at sikre sig en top-placering i resultat-listen. Flere nyetablerede
danske firmaer arbejder kun med at "positionere" web-steder så godt som
muligt på internationale søgemaskiner som Lycos og AltaVista. En god
placering - altså, at siden fremkommer som nr. 1 eller 2, når man søger
på et populært søgeord - kan være millioner værd.


"Søgemaskinernes kamp for at sikre relevante resultater er i konstant
udfordring fra folk som undertegnede, der beskæftiger sig med aktiv
søgemaskine positionering. Det er et "håndværk" der har til formål at
sikre websider lige præcis den placering jeg ønsker ved brug af lige
præcis de søgeord jeg har besluttet mig for," siger Mikkel Svendsen.


Robotter, der automatisk læser websider, og programmer, der automatisk
forholder sig til sidernes indhold når der søges, er konstrueret ud fra
et sæt af parametre, der bestemmer hvor relevant siden vurderes til at
være. Hvis man kender disse parametre kan de manipuleres. Hvis man er
dygtig, og kender både robotterne og de andre faktorer der afgører
relevans, kan man placere sine sider lige præcis der hvor man vil, mener
han.

Blandt de danske firmaer, som hjælper med at placere virksomheder optimalt på Nettets søgemaskiner, er Infosiden (http://www.infosiden.dk), Next Step (http://www.nextstep.dk) og Notabene (http://www.notabene.net).

Selv nye søgeprogrammer som Google kan manipuleres eller "knækkes".
Google benytter antallet af links, som peger på en side, til at afgøre,
hvor den skal placeres i resultat-listen. "Jeg kender personligt til et
par projekter med kæmpe store automatiserede linkudvekslingsprogrammer
der meget snart vil betyde at tusindvis af mere eller mindre ubetydelige
websites vil have flere links til deres sider end de mest populære
steder på Nettet. Og så er linkpopulariteten død," fortæller Mikkel
Svendsen.


Han mener, at aktive søgemaskine-specialister vil blive ved med at
"snyde" søgemaskinerne. "Det er en evig kamp. Frem og tilbage. Hver gang
søgemaskinerne finder på noget nyt, vil søgemaskine specialisterne
forsøge at komme uden om det," mener Mikkel Svendsen. Det amerikanske
SearchEngineForums, hvor han er moderator, har omkring 250.000 brugere.
Mange af dem er meget dygtige, og de vil være i stand til at manipulere
resultaterne i søgemaskinerne mange år frem, spår han.


Men søgemaskine-specialisterne er ikke hensynsløse hacker-typer. "Et
langt stykke hen ad vejen er aktiv søgemaskine positionering ikke i
konflikt med søgemaskinernes interesser. En stor del af håndværket
handler om at konstruere sine websider på en sådan måde at
søgemaskinerne kan læse dem med deres automatiske robotter. Og det er
søgemaskinerne naturligvis glade for. I NEC undersøgelsen blev det i
øvrigt også konkluderet at kun en meget lille del af det samlede antal
sider på Nettet har korrekt udførte header-informationer, hvilket er
nødvendigt for at robotterne kan læse siderne," forklarer Mikkel
Svendsen.


Han indrømmer dog, at nogle lidt for ivrige specialister går over
stregen og forsøger at få deres sider placeret højt i resultaterne, når
der søges med ord som intet har med indholdet at gøre.


Kapløbet mellem søgemaskiner og søge-specialister betyder, at der hele
tiden udvikles nye søgeteknologier. Dagens metoder vil snart miste deres
betydning til fordel for andre og nye, som igen bliver overhalet af
teknologien inden længe. Et evigt kapløb mellem programmører og brugere.




    Brancheguiden
    Brancheguide logo
    Opdateres dagligt:
    Den største og
    mest komplette
    oversigt
    over danske
    it-virksomheder
    Hvad kan de? Hvor store er de? Hvor bor de?
    Højer og Lauritzen ApS
    Distributør af pc- og printertilbehør.

    Nøgletal og mere info om virksomheden
    Skal din virksomhed med i Guiden? Klik her

    Kommende events
    Cyber Threats 2024: Sådan arbejder de it-kriminelle – og sådan beskytter du dig

    De cyberkriminelle har udviklet sig betydeligt, arbejder professionelt, fleksibelt og udnytter hinandens specifikke kompetencer – omtrent som en velsmurt koncern med klar ansvarsfordeling – og har ofte en klar politisk eller kommerciel motivation. Det stiller også nye krav til din tilgang til cybersikkerhed, og på Cyber Threats 2024 får du viden, som gør dig i stand til bedre at prioritere, planlægge og eksekvere en tidssvarende cybersikkerhedsstrategi.

    12. november 2024 | Læs mere


    Fremtidens digitale kraftværk: Tag styringen med dit ERP-system

    I dag ligger moderne ERP-platforme i skyen og opdateres adskillige gange årligt. Samtidig får man nærmest pr. automatik adgang til en omfattende portefølje af integrationer, add-ons, 3. partsmoduler, BI og avancerede funktioner til AI/ML-understøttelse af forretningsprocesser. På denne dag går vi derfor i dybden med, hvad det betyder for din virksomhed. Uanset om I har migreret til en cloudbaseret platform eller planlægger at gøre det indenfor en overskuelig fremtid.

    13. november 2024 | Læs mere


    Fremtidens digitale kraftværk: Tag styringen med dit ERP-system

    I dag ligger moderne ERP-platforme i skyen og opdateres adskillige gange årligt. Samtidig får man nærmest pr. automatik adgang til en omfattende portefølje af integrationer, add-ons, 3. partsmoduler, BI og avancerede funktioner til AI/ML-understøttelse af forretningsprocesser. På denne dag går vi derfor i dybden med, hvad det betyder for din virksomhed. Uanset om I har migreret til en cloudbaseret platform eller planlægger at gøre det indenfor en overskuelig fremtid.

    21. november 2024 | Læs mere