optimer parse af store filer
Hvis jeg har en stor fil (eks. access.log) og ønsker at parse den via php, findes der så en mere "optimal" måde at gøre det på... lige nu åbner jeg filen med:$file = file('filenavn');
og looper den igennem, hvilket kan tage meget lang tid og er hårdt for maskinen.
1. Er det muligt at "dele" en fil i flere bidder uden at skulle loade og loope hele filen? (og den må selvfølgelig ikke dele ½ inde midt i en linie)
2. Kan man hente de første eks. 100 linier ind i et dokument og tage dem 100 a' gangen *og vil det overhovedet hjælpe*
håber i evt. selv sidder med en god ide til at gøre dette mere smertefrit!