sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #102586
Re: Rekursiv download af website
On Fri, Dec 21, 2012 at 10:13:52 +0000, Lars Madsen wrote:
mystisk dette indlæg ikke kom ud på news/nntp....
> IT afdelingen lukker snart ned for et af vore gamle Typo3 sites.
>
> Jeg tænkte at jeg lige ville lave en disk kopi af sitet inden.
>
> Men uanset hvilke options jeg smider efter wget så får jeg kun forsiden hentet ned
>
> Nogen der har erfaring med wget og sites som anvender <base href="...." />?
der er ikke alm. links i dokumenter og er det std. .html filer eller ?
kun <base... > ?
og meget javascript der laver linkene ?
manual siden til wget har noget om det:
-i file
.........
However, if you specify --force-html, the document will be regarded as
html. In that case you may have problems with relative links, which you
can solve either by adding "<base href="url">" to the documents or by
specifying --base=url on the command line.
If the file is an external one, the document will be automatically treated
as html if the Content-Type matches text/html. Furthermore, the file's
location will be implicitly used as base href if none was specified.
wget plejer at virke med std. html og <a href=""...> , <img ... > osv.
--
mvh Frank Damgaard |
Follow ups
References