Avatar billede 0verwrite Nybegynder
25. november 2004 - 03:15 Der er 3 kommentarer

optimer parse af store filer

Hvis jeg har en stor fil (eks. access.log) og ønsker at parse den via php, findes der så en mere "optimal" måde at gøre det på... lige nu åbner jeg filen med:
$file = file('filenavn');
og looper den igennem, hvilket kan tage meget lang tid og er hårdt for maskinen.

1. Er det muligt at "dele" en fil i flere bidder uden at skulle loade og loope hele filen? (og den må selvfølgelig ikke dele ½ inde midt i en linie)

2. Kan man hente de første eks. 100 linier ind i et dokument og tage dem 100 a' gangen *og vil det overhovedet hjælpe*

håber i evt. selv sidder med en god ide til at gøre dette mere smertefrit!
Avatar billede bojo Nybegynder
25. november 2004 - 06:54 #1
brug fopen og så fgets i en loop, den tager 1 linie af gangen
Avatar billede schaefner Juniormester
25. november 2004 - 08:05 #2
Avatar billede 0verwrite Nybegynder
27. november 2004 - 03:21 #3
...tak for linket, men jeg søger mere noget der kan "dele" filen op i små bidder...

jeg kan åbne med fopen og hente eks. 100 linier og parse dem igennem, men hvordan får jeg slettet de 100 linier fra min originale fil (access.log) og hvordan sørger jeg for den stopper ved et line-break og ikke midt i en sætning?
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
Vi tilbyder markedets bedste kurser inden for webudvikling

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester