sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #86204
Hjælp til at "høste" html-sider
Hej NG
Jeg skal have overført et websted til lokal sandkasse på min egen maskine,
men mangler lidt hjælp til at få alle sider med.
Jeg er allerede kommet langt med wget, men mangler stadig nogle sider, som
der ikke linkes direkte til.
Der er en "udvælg-side" af formen:
http://www.domain.tld/getpage?page=XXX
hvor XXX, tilsyneladende, kan være en kobination af alle tal og bogstaver.
Da jeg er overbevist om der _ikke_ er en side for hver kombination og
derfor ikke behøver at løbe tør for diskplads, men heller ikke ved hvilke,
der findes, kunne jeg godt tænke mig et (bash-) script, der forsøgte at
hente alle kombinationer.
Jeg kan bare ikke lige selv gennemskue hvordan det gøres.
Vil I hjælpe?
--
/Zmit/
Follow ups