Google ret hemmelighedsfulde omkring hvordan de leverer varen.
Jeg antager at du ikke er saa interesseret i logikken bag Google (hvordan de finder sider og hvordan de udvaelger resultater) men mere i teknikken bag det.
Baseret paa rygter (!!!!) saa skulle det vaere:
- Google har nogle kaempe server farme formentligt i 200000 servere klassen, billige saml selv x86 maskiner som koerer Linux med billige IDE harddiske og paent med RAM - langt det meste data er i memory (200000 x 1 GB er jo 200 TB RAM) hvilket giver meget hurtig opslag men selvfoelgelig et udfordring at faa requesten hen til en af de maskiner som har den oplysning der skal bruges - diskene er organiseret med deres eget fil system / database system - de bruger deres egen web server - crawler er lavet i Python
d.v.s. at det er en totalt skraeddersyet loesning Google bruger. Det giver naturligvis bedre performance end en standard loesning (som f.eks. Lucene oven paa en standard database). Det koster ogsaa i udvikling og vedligehold, men Google har raad til det.
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.