← Back to team overview

sslug-teknik team mailing list archive

Re: Rekursiv download af website

 

On Fri, Dec 21, 2012 at 10:13:52 +0000, Lars Madsen wrote:

mystisk dette indlæg ikke kom ud på news/nntp....


> IT afdelingen lukker snart ned for et af vore gamle Typo3 sites.
> 
> Jeg tænkte at jeg lige ville lave en disk kopi af sitet inden.
> 
> Men uanset hvilke options jeg smider efter wget  så får jeg kun forsiden hentet ned

> 
> Nogen der har erfaring med wget og sites som anvender <base href="...." />?

der er ikke alm. links i dokumenter og er det std. .html filer eller ?
kun <base... > ?
og meget javascript der laver linkene ?


manual siden til wget har noget om det:
      -i file
	.........
           However, if you specify --force-html, the document will be regarded as
           html.  In that case you may have problems with relative links, which you
           can solve either by adding "<base href="url">" to the documents or by
           specifying --base=url on the command line.

           If the file is an external one, the document will be automatically treated
           as html if the Content-Type matches text/html.  Furthermore, the file's
           location will be implicitly used as base href if none was specified.


wget plejer at virke med std. html og <a href=""...> , <img ... > osv.


-- 
mvh Frank Damgaard  | 



Follow ups

References