sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #86207
Re: Hjælp til at "høste" html-sider
2005/12/15, Michael Schmidt <m.schmidt@xxxxxxxx>:
> Hej NG
> Jeg skal have overført et websted til lokal sandkasse på min egen maskine,
> men mangler lidt hjælp til at få alle sider med.
> Jeg er allerede kommet langt med wget, men mangler stadig nogle sider, som
> der ikke linkes direkte til.
> Der er en "udvælg-side" af formen:
>
> http://www.domain.tld/getpage?page=XXX
>
> hvor XXX, tilsyneladende, kan være en kobination af alle tal og bogstaver.
> Da jeg er overbevist om der _ikke_ er en side for hver kombination og
> derfor ikke behøver at løbe tør for diskplads, men heller ikke ved hvilke,
> der findes, kunne jeg godt tænke mig et (bash-) script, der forsøgte at
> hente alle kombinationer.
> Jeg kan bare ikke lige selv gennemskue hvordan det gøres.
> Vil I hjælpe?
>
> --
> /Zmit/
>
Hvis den pågældende ser redirecter til et "error" dokument skal du nok
ikke være bange for at blive fyldt, så skal du bare slette error filen
(og de "kopier" wget laver når filen findes i forevejen) med rm -f
error*.html
Men det bedste er jo at få ftp eller ssh adgang til serveren så du kan
se hvilke dokumenter der eksistere!
-Lasse Luttermann
References