Avatar billede neess Nybegynder
12. februar 2011 - 14:03 Der er 1 kommentar

Crawle website og gemme som HTML

Jeg søger et program der kan crawle en hjemmeside igennem, og gemme siderne som HTML, så man ville kunne se siden offline.

Det skal bruges til at tage en backup af en side, som vi desværre ikke har FTP adgang til.

Programmet må gerne være gratis, eller ikke i den dyre ende.
Hvis det er under 50 dallas er det helt perfekt.
Avatar billede 2Mida Praktikant
12. februar 2011 - 15:11 #1
Brugte dette for år tilbage http://www.httrack.com/
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
IT-kurser om Microsoft 365, sikkerhed, personlig vækst, udvikling, digital markedsføring, grafisk design, SAP og forretningsanalyse.

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester



Seneste spørgsmål Seneste aktivitet
I dag 06:10 Excel åbner fil i kæmpe format Af Aske i Excel
I går 22:00 Datafordeler Af Lsk i PHP
I går 12:37 Summere beløb pr. dato Af TTA i Excel
31/1022:44 Tilslutte chassic fans Af viking69 i PC
31/1020:28 LED lysstofrør Af ErikHg i Fri debat