Avatar billede the_saint Nybegynder
18. marts 2011 - 08:17 Der er 2 kommentarer og
1 løsning

Bedste måde at læse store filer på

Hej.

Jeg har en webside hvor der kan uploades filer til, ikke alle skal have adgang til filerne, så de er placeret uden for webrooten - og kan derfor ikke tilgås fra http.

Jeg har nu en getfile.php, men jeg vil gerne optimeret den - da jeg føler at serveren hænger hver gang den skal læse en stor fil.

pt bruger jeg denne metode:

$fp = fopen($filepath,"r");
while (!feof($fp))
{
$buff = fread($fp,4096);
print $buff;
}

Er der andre metoder som er hurtigere, bedre eller som man bør bruge istedet? file_get_contents eller lign?

Mvh.
Avatar billede erikjacobsen Ekspert
18. marts 2011 - 09:07 #1
Prøv at kalde http://php.net/flush efter hver print. Ellers risikerer du at serveren skal gemme den store fil i RAM inden den kommer ud til klienten.
Avatar billede the_saint Nybegynder
21. marts 2011 - 07:08 #2
Det kunne meget vel være det. Og hvis det ikke hjælper på performance må det være et server setup problem.

Smider du et svar? :)
Avatar billede the_saint Nybegynder
11. april 2011 - 15:26 #3
Smider du et svar?
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
Vi tilbyder markedets bedste kurser inden for webudvikling

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester