sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #97196
Re: Lidt hjælp til wget
On Sun, Dec 21, 2008 at 17:25:04 +0100, E. Sjørlund wrote:
> Jeg forsøger at hente en artikel med kommandoen:
> wget -cr http://www.eonclash.com/Tutorials/Multithreading/MartinHarvey1.1
>
> Det giver en række sider og kapitler, men ikke de eksempler, der er på
> siderne.
> Således vil
> wget -cr
> http://www.eonclash.com/Tutorials/Multithreading/MartinHarvey1.1/Source2.html
>
> hente et eksempel, som i artiklen kommer i et popup-vindue.
pop-ups er nogen gange javascript, og den slags skal du ikke regne med at
at wget kan klare.
Er det blot link så burde det være muligt.
>
> Hvad er grunden til, at wget ikke fanger eksistensen af de filer, der
> starter med et stort bogstav? De kan hentes ved at skrive deres url, men
> ikke via * eller ? som fx:
husk din shell expandere * og ? !
>
> wget -cr
> http://www.eonclash.com/Tutorials/Multithreading/MartinHarvey1.1/Source*.html
>
> eller
>
> wget -cr
> http://www.eonclash.com/Tutorials/Multithreading/MartinHarvey1.1/Source5?.html
prøv ..." udenom hele URL eller brug \ foran tegn som
*, ?, {, }. [, ], (, ) mfl.
me med "*" får man fra w3m:
Advarsel: jokertegn ikke understøttet i HTTP!
så det kan man ikke.....
Måske du skulle lede efter andre programmer til at lave "mirror" af websider,
evt. som omt (OpaL Mirror Tool) eller httrack (begge i ubuntu)
mirrotool har du et lille problem med den side du er statet med
da det er en refresh i html til ny side.
Men :
mirrortool --force --depth 2
http://www.eonclash.com/Tutorials/Multithreading/MartinHarvey1.1/ToC.html
ser ud til at gøre omtrent det ønskede, hvis jeg har forstået det du vil
mirrortool har også en --store "regexp" og --what "regexp"
til at begrænse de ønskede filer.
--depth N er til at angive hvor dybt der rekursivt skal gås igennem links.
--
mvh Frank Damgaard |
References