Det er over et halvt år siden, at Edward Snowden fik fingre i massevis af fortrolige data fra efterretningstjenesten NSA, som drypvis er blevet lækket til journalister og medier.
De mange data har blandt andet afsløret, hvordan NSA har telefonaflyttet regeringsledere, blandt andet Tysklands Angela Merkel.
Senest er det kommet frem, hvordan Edward Snowden fik fingre i de mange data.
Ifølge New York Times har efterforskere konkluderet, at han blot benyttede en simpel web-crawler, der egentlig er skabt til at søge, indeksere og tage backup af hjemmesider.
Med softwaren lykkedes det ham at skrabe data fra NSA's systemer, mens han passede sit arbejdede.
Processen foregik altså automatisk.
Downloadede 1,7 millioner filer
Efterretningsfolk, som New York Times har talt med, vurderer, at det ikke var noget sofistikeret datatyveri, og det nemt skulle være blevet opdaget.
Webcrawleren kan kopiere alt på sin vej, og Snowden har angiveligt angivet bestemte søgeord, og hvor dybt der skulle fiskes efter dokumenter.
Det lykkedes ham at få fingre i cirka 1,7 millioner filer, som blandt andet stammer fra 'wikis', hvor efterretningsfolk og analytikere deler fortrolig viden.
Kun få bemærkede noget
Hvis Edward Snowden havde arbejdet i NSA's hovedkvarter, var han formentlig blevet opdaget. Det skyldes, at hovedkvarteret overvåger, hvis en stor mængde data tilgås og downloades.
Men da whistlebloweren arbejdede via et lokalt NSA-kontor i Hawaii, der manglede at få opgraderet sine sikkerhedsforanstaltninger, var der kun få, der bemærkede, at noget var galt.
Mindst én gang blev der dog stillet spørgsmål, men Edward Snowden slap af sted med at downloade data alligevel.
Det skyldtes, at han som systemadministrator forklarede, at det drejede sig om rutinevedligeholdelse af netværket og dermed backup af computersystemer og overflytning af informationer til lokale servere.
Efterforskere vil ikke afsløre, hvilken webcrawler Edward Snowden anvendte, og om han i givet fald selv havde skrevet noget af programkoden.