Ebbe Groes er en af personerne bag et nystartet dansk Internet-firma, Kapow! Firmaets speciale er avancerede interaktive Internet-tjenester og automatisk informationssamling på nettet med "robotter". Ebbe Groes er 35 år, cand.polit, 1989, og ph.d. i økonomi, 1993, fra Københavns Universitet. Efter færdiggørelsen af ph.d.-graden var Ebbe ansat på Københavns Universitet og Handelshøjskolen i København som forskningsadjunkt. Han har opholdt sig et år ved både London School of Economics og Harvard University, USA.
I 1996 blev Ebbe ansat i Garantifonden for Danske Optioner og Futures. Ved sammenlægningen af Garantifonden og Københavns Fondsbørs i 1997 blev han souschef i Fondsbørsens Informationsafdeling. Her var han bl.a. projektleder ved udviklingen af Fondsbørsens hjemmeside og tekst-TV information. Ebbe Groes er direktør for Kapow med ansvar for projektudvikling og -styring. Han er bestyrelsesmedlem i Hugin Online A/S.
Kapow!'s hjemmeside findes på adressen http://www.kapow.dk/.
ComON: Du har været med til at starte et nyt Internet-firma, Kapow! Fortæl lidt om baggrunden for firmaet og dets perspektiver.
Groes: Kapow startede 1. juni i år. Vi, der startede firmaet, gik i gode sikre stillinger og så hvordan verden var ved at blive forandret af Internettet. Jeg er selv økonom, og var på Københavns Fondsbørs med til at lancere en meget succesrig Internettjeneste med kursinformation, bare ét trin i revolutionen af hele finanssektoren. Det var fantastisk inspirerende.
Vor grundholdning er, at det på Internettet handler om indhold, indhold og atter indhold. Det fascinerende er, at der kan laves systemer, som ikke bare er effektivisering af hvad vi gjorde i gamle dage, d.v.s. for tre år siden, men helt nyt. Det handler om at have gode ideer og så kunne bakke det op med en effektiv programmering og databasehåndtering på serversiden.
Mine to medstiftere er begge meget inde i objektorienteret programmering og design og kunne se store muligheder i at udnytte Java i Internetverdenen, hvor man også på serversiden har meget gavn af den platforms- og databaseuafhængighed som Java giver.
ComON: Jeres speciale er automatiske søge-robotter i forbindelse med Internet-databaser. Hvorfor har I valgt netop dette område?
Groes: Udgangspunktet for os var ikke teknologien men behovet. Vi startede sidste vinter med at kigge på boligmarkedet. Det ville jo være rart om man kunne starte sin boligjagt ét sted, snarere end at skulle kigge i søndagsaviser, lokalaviser, særlige boligaviser fra de store ejendomsmæglerkæder og så - naturligvis - de tilgængelige databaser på Internettet. Hvad der var behov for, var en "boligmarkedets Altavista". Det gik vi så i gang med at lave. Vi havde selvfølgelig vor egen forestilling om, hvordan der kunne tjenes penge på det. Men først og fremmest indså vi, at der var store gevinster for brugerne ved en fælles database.
Efter at vi nu har arbejdet med robotter i snart et år, står det klart, at behovet for at sammenstille information fra Internettet er enormt. Og naturligvis er det stadigt voksende, i takt med at websites bliver databasebaserede og dermed gør mængden af publiceret information langt større.
ComON: Kan du pege på nogle specifikke danske Internet-tjenester, som vedligeholdes af denne form for informationssamlende robotter?
Groes: Så vidt jeg ved er der kun ganske få sådanne tjenester i Danmark.
Pioneren på dette område er jo Kaare Danielsen, der for flere år siden lancerede de to tjenester Aktienyt og Job-Index. Robotten i Aktienyt henter overskrifter og links til børsstof i forskellige danske Internetmedier, mens der i Job-Index indsamles ledige stillinger på Internettet. Kaare er mangeårig ven med en af mine partnere i Kapow, og vi har haft stor glæde af at diskutere robotter med ham.
Så har vi BoligForum på Søndagsavisen, lavet af Araneum. Denne tjeneste samler information fra diverse bolig-sites, som Kapows eget Bolig-Index. Først og fremmest adskiller de sig ved, at BoligForum er gået live, mens Bolig-Index ikke er det. Årsagen er nok så interessant i et lidt længere perspektiv. Ejerne af de største bolig-sites, kæder som EDC, Home og Nybolig, har simpelthen frabedt sig denne sammenstilling af information. Vi valgte i Kapow derfor at undlade en lancering, mens Søndagsavisen har fastholdt deres tjeneste. Det er uklart, om denne type robottering er lovlig, men noget tyder på, at Søndagsavisen har retten på deres side. Ihvertfald er de stadig i luften. Sagen skal blive interessant at følge.
Endelig har vi så vort eget Båd-Index, der netop er lanceret på TV 2s store site.
ComON: Hvordan fungerer - groft skitseret - jeres automatiske søgerobotter? Hvor specifikt skal man definere, hvilke informationer de skal søge efter?
Groes: Rent teknisk er de programmeret i Java og kan derfor afvikles på alle platforme og med enhver database. De andre robotter vi kender til er lavet i Perl. Vi anvender et værktøj, som etablerer en træ- eller objektstruktur for den html-side, som vi kigger på. Analogt til at der i JavaScript kan refereres til visse objekter i dokumentet. Ved hjælp af det, kan vi referere direkte til f.eks. indholdet af en bestemt celle i en tabel.
Til de projekter, som vi hidtil har arbejdet med, er det hard facts vi leder efter. I f.eks. Bolig-Index tager vi udgangspunkt i en egen database, hvor hvert emne har egenskaber som m2, pris, alder o.s.v. Specielt er vigtigt at have en Internetadresse, der peger ned på original-sitet, hvor emnet kan ses i sin helhed. Det er så de informationer, som skal indhentes.
ComON: Skal robotten skræddersys til hver enkelt side, som den skal hente informationer fra, eller kan den selv "lære", hvordan dokumentet er sat sammen?
Groes: Hvor "intelligent" en robot skal være afhænger af, hvor mange dokumenter man skal gennemsøge, og hvilken slags information der skal hentes. Laver man for eksempel en robot til at hente farvandsudsigten fra DMI vil den typisk være meget primitiv, men skal man hente data fra flere hundrede dokumenter, så kan det betale sig at lave robotterne mere intelligente. Vi har med Baad og Bolig-Index, som kun robotterer relativt få dokumenter, valgt at skræddersy robotterne til de enkelte sites. Dels fordi vi skal være 100% sikre på rigtigheden af informationer, og også fordi det skal gå hurtigt.
Jo mere intelligent man laver en robot, jo længere vil den skulle arbejde. For eksempel tager det kun 3 minutter i real tid for vores bådrobot at hente og gemme over 800 bådemner i vores database. Da vi har udviklet et stort bibliotek af objektorienterede værktøjer netop beregnet til denne slags robottering, hvor vi f.eks. kan relatere rækker en html-tabel direkte med en databasetabel, kan vi relativt hurtigt fremstille disse skræddersyede robotter. Det har i praksis vist sig at vores intelligensniveau til fulde har tilfredsstillet vore behov, og der har været ganske lidt løbende vedligeholdelse af vore kørende systemer.
Faktisk er robotskrivning med vore værktøjer så nemt, at vi flere gange har lavet "engangsrobotter" og denne service er da også en del af vores forretningsgrundlag. Skal jeg f.eks. have en liste over alle reklamebureauer i Danmark til noget direct mail, kan jeg fra en tjeneste som Tele Danmarks glimrende De Gule Sider få en alenlang liste. Ideelt har jeg brug for en kommasepareret fil, som lige kan hives ind i en lille database, og det kan jeg så lave med en robot.
ComON: Hvor ser du perspektiverne for automatiske og "intelligente" robotter, der gennemvandrer nettet på jagt efter informationer?
Groes: Perspektiverne i robotanvendelsen er fantastisk store. Hvor meget intelligens, der kan lægges ind er jeg ikke den rette til at svare på, men en væsentlig grad af skræddersyning til formålet vil formentlig være det rigtige.
Et yndlingseksempel for mange har været perspektiverne i sammenstilling af information fra on line-forretninger. I ComOn havde I forleden et link til en meget spændende amerikansk prissammenligningsrobot, mySimon. Mere kendt er måske en af deres største konkurrenter, Junglee, som for kort tid siden er købt af Amazon for et svimlende beløb.
Men der er nærmest uendeligt mange anvendelsesmuligheder, som stadig venter på at blive taget i brug:
- Prissammenligninger ses mest på detailforretninger. Men det er i virkeligheden slet ikke dér, at man kan finde de fleste og bedst sammenlignelige priser i dag. F.eks. kan man lave on line-sammenligninger af bankernes køb-salgs-kurser ved værdipapirhandel, ind- og udlånsrenter, gebyrer. Eller hvad med mobiltakster? Eller priser på webhoteller? Eller ....
- Virksomheder betaler bureauer for at holde øje med egen optræden i trykte medier. En robot kunne - især når vi får flere medier på nettet - gøre et bedre og billigere arbejde. Eller vend den om: Jeg vil gerne holde øje med nogle konkurrenter? Sæt en robot til at overvåge deres egne sider plus nogle nyhedstjenester og send mig en e-mail, hvis der sker noget.
- TV-guider er populært stof på Internettet. I stedet for at lave den på den hårde måde, kunne den blive automatisk vedligeholdt ud fra TV-stationernes egne hjemmesider.
Vi ser sådan på det, at der allerede i dag er meget store muligheder. Mulighederne er direkte relateret til, hvad vi kan finde på Internettet. For to år siden ville en boligrobot ikke være interessant. Det er den nu. En dansk prisrobot er - stadig - ikke særligt interessant. Men det er den om to år.
ComON: Hvis jeg eksempelvis ønskede mig en nyhedsdatabase, der konstant opdateres og vedligeholdes af automatiske programmer, som finder nyheder inden for et bestemt tema på nettet og sender mig et e-mail, hvis en vigtig nyhed dukker op - kan det så lade sig gøre rent teknisk?
Groes: Ja bestemt. Aktienyt er et eksisterende eksempel på (stort set) sådan en tjeneste. Der mangler lige lidt brugertilpasningsmuligheder, så du kan få lejlighed til at fortælle, hvad du synes er vigtigt. F.eks. selskaber du følger, eller størrelser på kursændringer, som skal udløse en alert. Naturligvis kunne der også laves robotbaserede tjenester, der indsamlede sportsnyheder, bogstof eller noget helt tredie.
ComON: Intelligente søgeprogrammer i forbindelse med Intranet er vel et tema, som ikke har fået ret meget opmærksomhed. Hvor ser du fordelene i at anvende sådanne programmer til at samle informationer i et Intranet-miljø?
Groes: Det har vi ærligt talt aldrig tænkt over selv. Når det kommer til Intranet vil oplysningerne jo i forvejen eksistere i organisationens databaser. Så dataindsamlingsdelen er overflødig. Når det så kommer til at søge rundt på Intranettet er der naturligvis behov for at have en ordentlig katalogisering. MondoSearch er vel et eksempel på et program, som gør det godt på et webhsite og vil give endnu mere smæk for skillingen på et Intranet.
ComON: Man har snakket meget om, at vi alle skal have vores egen lille intelligente agent, der finder informationer ud fra vores præferencer og ønsker. Tror du , at dette nogensinde bliver en realitet, eller ønsker den almindelige bruger slet ikke et program, der gør sig "selvstændigt"?
Groes: Vor egen lille agent, som er et selvstændigt program, der surfer rundt i verden på vores vegne, og som vi skal bruge tid og kræfter på at opdrage om alt fra seksuelle præferencer og holdninger til finansielle risici til foretrukne forfattere eller fodboldklubber, tror jeg ikke på.
Det er ikke fordi jeg ikke ønsker et program, der gør sig selvstændigt. Tværtimod. At det kan være skægt at skabe en kunstig identitet kan vi jo se på chat eller i avancerede rollespil. Og den type aktiviteter vil utvivlsomt få et stadigt større præg af, at den figur man skaber tager egne initiativer. Men en generel informationsindsamlingsrobot er næppe praktisk.
I stedet sker præferenceopbygningen der, hvor vi kommer efter information dermed selv lægger information om egne præferencer. Nogle steder vil man kunne nøjes med den information, som webstedet registrerer ud fra mine egne tidligere handlinger, som når boghandleren kan anbefale en ny bog på basis af mine tidligere indkøb. Andre steder vil man aktivt søge at få mig til at markere mine præferencer, som det især vil ske på portalerne, der har mulighed for at give mig en selvstændig identitet på portalen.
ComON: I har netop lanceret databasen Båd-Index sammen med TV 2. Fortæl lidt om denne nye tjeneste.
Groes: Prøver man at tage et skridt baglæns, bliver det måske nemmere at se perspektiverne i sådan en tjeneste. Forestil dig, at du er på udkig efter en bestemt båd, f.eks. en Maxi 77, dog højst til en pris af 80.000 kroner. Du kunne godt tænke dig et program, som overvåger samtlige relevante hjemmesider i Danmark og sender dig en e-mail, hvis der dukker sådan én op. Det kan Båd-Index klare.
Båd-Indexets grundelement er en database opbygget med Internetrobotter. Dertil kommer, at der er en indtastningsdel, hvor der kan indlægges annoncer af brugerne. Tjenesten blev lanceret midt i oktober. I dag, efter tre uger, har vi over 1.000 både i databasen. Heraf er et par hundrede blevet indtastet. På et relativt lille marked er det rigtig mange emner. Til sammenligning har de største job- og bilbaser 7.000 hhv. 11.000 emner. Begge er i øvrigt på TV 2's glimrende web site. Før vi gik i gang sammenlignede vi naturligvis med konkurrenterne på dette marked. De største udvalg finder man i et dagblad hhv. et specialmagasin. Ingen af dem har mere end halvt så mange emner.
Iøvrigt har vi naturligvis, som nyt firma, kunnet bruge projektet til at få erfaringer med andet end robotbygning. F.eks. det med brugertilpasning. Vi har en logning af brugernes søgeprofil, som bruges til automatisk at genindsætte søgekriterier og til en e-mail-tjeneste. Et "must have". Men så har vi sat et lille twist på, ved at logge tidspunkt for brugerens sidste besøg hhv. annoncernes indlæggelse og bruge det til ved hvert besøg at sætte en persontilpasset markering på nye emner i databasen; dette emne er kommet til siden dit sidste besøg. Det er ikke en intelligent agent, men det løser et praktisk problem ved gentagne opslag i store databaser.
Der er iøvrigt en anden sjov lille ting ved Båd-Indexet, som involverer robotter. Bådmarkedet er af natur internationalt, og mange danskere køber båd i vore nabolande. Vi har derfor lavet et par robotter på svenske og norske bådforhandlere. I Båd-Indexet optræder de med priser i danske kroner, og det klares bag kulissen ved en omregning til dagens valutakurser, som vi henter på Internettet med en helt tredie robot.
ComON: Kan du løfte sløret for andre af jeres projekter, som vil resultere i nye danske Internet-tjenester? Kommer vi til at se flere database-tjenester fra Kapow, der er baseret på automatiske robotter?
Groes: Vi har fra starten været klare over, at en succesrig robottjeneste kræver andet end et godt produkt, som brugerne vil have glæde af. Først og fremmest er der ofte meget politik involveret p.g.a. de store interesser, som kan knyttet til den nuværende distribution af informationen. Vores ambition er helt klart at udbygge vor position og kunnen på dette område, og som sagt, potentialet er der. Så ja, der kommer mere fra os. Både herhjemme og i udlandet. Hvad og hvor kan jeg ikke sige.