Avatar billede bibsen2 Nybegynder
17. august 2003 - 15:26 Der er 14 kommentarer og
1 løsning

Wget problem når output angives (-O)

Hej alle. Håber nogle kan hjælpe med dette problem.
Jeg prøver at hente et "helt site" og dumpe det i /dev/null

Hvis jeg bruger "wget -r www.dr.dk" så funker det fint og den henter bare til jeg stopper den :)  men hvis jeg så
bruger "wget -r www.dr.dk -O /dev/null" så har vi balladen...
jeg får bla:
  Length: unspecified [text/html]
  15:23:24 (1.52 MB/s) - `/dev/null' saved [79544]
  www.dr.dk/index.html: No such file or directory

Nogen der kan forklare hvorfor problemet kun opstår når -O bruges...  og hvordan jeg evt. får det til at funke?

På forhånd tak.
Brian Ibsen
Avatar billede simonvalter Praktikant
17. august 2003 - 22:47 #1
jeg ved ikke hvordan du får det til at virke

men dr har ikke nogen index.html fil eller index.php/shtml etc for den sags skyld
jeg ved ikke hvordan de har opbygget det .. men det er ikke lige til at mirror .. jeg har også prøvet med lynx
du kan jo feks checke linket for sporten
http://www.dr.dk/sporten/?top=true

ikke ligefrem noget normalt link
Avatar billede arne_v Ekspert
17. august 2003 - 22:47 #2
Jeg har samme problem med:
  wget -r www.dr.dk --spider
på Windows.

Tilsyneladende kræver -r at filerne er gemt.
Avatar billede simonvalter Praktikant
17. august 2003 - 22:52 #3
hmm .. nu virker det fint her .. jeg har ikke lavet om på noget
Avatar billede simonvalter Praktikant
17. august 2003 - 22:55 #4
den skifter mellem at virke og ikke virke ..
http://www.gbit.dk/www.dr.dk/

når den ikke vil virke til /dev/null så kører jeg den med
wget -r www.dr.dk
og så virker det på begge måder igen .. meget mystisk
Avatar billede simonvalter Praktikant
17. august 2003 - 23:09 #5
jep arne_v har ret .. hvis du kører uden -O så du har feks
/usr/home/www.dr.dk/index.html
liggende så når du kører
med -O /dev/null
så henter den kun links der er i index.html filen
Avatar billede simonvalter Praktikant
17. august 2003 - 23:16 #6
hvis du sender til /dev/null fordi du kommer sitet i din proxy kan du bruge
--delete-after istedet
Avatar billede bibsen2 Nybegynder
18. august 2003 - 14:03 #7
Jeg har også prøvet --spider men kan heller ik få det til at virke..
og ja. jeg kan køre wget -r uden -O....  break'e den straks og så køre
igen med -O /dev/null.. så funker det fint fordi den førte kunne hente
(den server genereret) index.html


Men det underlig er jo hvorfor kun virker hvis jeg ikke prøver at output'e
til en fil...

og --delete-after er ikke så god da jeg har brug for noget som sletter med det samme
(da de maskiner der står og laver dette ikke har megen diskplads)
Avatar billede simonvalter Praktikant
18. august 2003 - 17:17 #8
øhh sletter delete after ikke pr fil hentet .. og så er der jo ikke tale om mere end lidt kb
Avatar billede bibsen2 Nybegynder
18. august 2003 - 23:40 #9
Joe..  du har faktisk ret....
Den sletter filerne løbende.

Dog sletter den ikke dir's så man har lige hele filstrukturen uden filer når man er færdig.
Det er måske irreterende, men det fylder da ikke det vilde :)
Avatar billede simonvalter Praktikant
19. august 2003 - 16:13 #10
wget -r www.dr.dk --no-directories --delete-after

vil klare det.
Avatar billede bibsen2 Nybegynder
19. august 2003 - 21:35 #11
ohh..  du lyder til at have tjek på det, så liige een ting til.

Kan jeg styre hvilke filer/typer den skal hente..
Hvis jeg f.eks bare vil have den til at "kigge" hele siden igennem uden at hente alle filerne..
??
Avatar billede simonvalter Praktikant
19. august 2003 - 21:46 #12
det har jeg så ikke helt styr på .. men jeg kom itanke om noget ..
hvis du bruger squid kan man vist få den til at hente det site du vil men jeg er for træt til at sidde og kigge på det nu. Du kan selv lige kigge på det .. eller så kan det være jeg kigger imorgen.
Avatar billede bibsen2 Nybegynder
19. august 2003 - 23:03 #13
Nu er det ikke Squid jeg skal bruge det til.

Faktisk er det fordi jeg bruger Apache::Gallery..  on online gallety modul.
For at tvinge den til at index'e sitet og lave thumpnails i bye dirs prøver jeg med wget.
Det er bedre end self at sidde og klikke i alle gallerierne.

Dit --no-directories --delete-after ser fint ud, men tager laaang tid når den skal hente 1GB..    så det kunne være cool at den f.eks ikke hentede .jpg eller noget i den stil.
Avatar billede arne_v Ekspert
19. august 2003 - 23:07 #14
Er det ikke bare

--reject=.jpg
Avatar billede bibsen2 Nybegynder
19. august 2003 - 23:22 #15
tjo..  det ser faktisk sådan ud :)
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
IT-kurser om Microsoft 365, sikkerhed, personlig vækst, udvikling, digital markedsføring, grafisk design, SAP og forretningsanalyse.

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester