sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #102587
RE: Rekursiv download af website
Der er masser af links
prøv selv: imf.au.dk
(vedr news ... måske kan den ikke lide exchange ;-)
/Lars Madsen
Institut for Matematik / Department of Mathematics
Aarhus Universitet / Aarhus University
Mere info: http://au.dk/daleif@imf / More information: http://au.dk/en/daleif@imf
________________________________________
From: Frank Damgaard [frank@xxxxxxxxxx]
Sent: 21 December 2012 13:31
To: sslug-teknik@xxxxxxxx
Subject: Re: [TEKNIK] Rekursiv download af website
On Fri, Dec 21, 2012 at 10:13:52 +0000, Lars Madsen wrote:
mystisk dette indlæg ikke kom ud på news/nntp....
> IT afdelingen lukker snart ned for et af vore gamle Typo3 sites.
>
> Jeg tænkte at jeg lige ville lave en disk kopi af sitet inden.
>
> Men uanset hvilke options jeg smider efter wget så får jeg kun forsiden hentet ned
>
> Nogen der har erfaring med wget og sites som anvender <base href="...." />?
der er ikke alm. links i dokumenter og er det std. .html filer eller ?
kun <base... > ?
og meget javascript der laver linkene ?
manual siden til wget har noget om det:
-i file
.........
However, if you specify --force-html, the document will be regarded as
html. In that case you may have problems with relative links, which you
can solve either by adding "<base href="url">" to the documents or by
specifying --base=url on the command line.
If the file is an external one, the document will be automatically treated
as html if the Content-Type matches text/html. Furthermore, the file's
location will be implicitly used as base href if none was specified.
wget plejer at virke med std. html og <a href=""...> , <img ... > osv.
--
mvh Frank Damgaard |
References