← Back to team overview

sslug-teknik team mailing list archive

RE: Rekursiv download af website

 

Der er masser af links

prøv selv: imf.au.dk

(vedr news ... måske kan den ikke lide exchange ;-)

/Lars Madsen
Institut for Matematik / Department of Mathematics
Aarhus Universitet / Aarhus University
Mere info: http://au.dk/daleif@imf / More information: http://au.dk/en/daleif@imf


________________________________________
From: Frank Damgaard [frank@xxxxxxxxxx]
Sent: 21 December 2012 13:31
To: sslug-teknik@xxxxxxxx
Subject: Re: [TEKNIK] Rekursiv download af website

On Fri, Dec 21, 2012 at 10:13:52 +0000, Lars Madsen wrote:

mystisk dette indlæg ikke kom ud på news/nntp....


> IT afdelingen lukker snart ned for et af vore gamle Typo3 sites.
>
> Jeg tænkte at jeg lige ville lave en disk kopi af sitet inden.
>
> Men uanset hvilke options jeg smider efter wget  så får jeg kun forsiden hentet ned

>
> Nogen der har erfaring med wget og sites som anvender <base href="...." />?

der er ikke alm. links i dokumenter og er det std. .html filer eller ?
kun <base... > ?
og meget javascript der laver linkene ?


manual siden til wget har noget om det:
      -i file
        .........
           However, if you specify --force-html, the document will be regarded as
           html.  In that case you may have problems with relative links, which you
           can solve either by adding "<base href="url">" to the documents or by
           specifying --base=url on the command line.

           If the file is an external one, the document will be automatically treated
           as html if the Content-Type matches text/html.  Furthermore, the file's
           location will be implicitly used as base href if none was specified.


wget plejer at virke med std. html og <a href=""...> , <img ... > osv.


--
mvh Frank Damgaard  |





References