← Back to team overview

sslug-teknik team mailing list archive

Re: ncftpget -R

 

> Jeg vil hente logfiler fra en webserver med flere domæner for at
> kunne  behandle dem lokalt.
> Filerne ligger således:
> ftpserver/logs/domainX/*.gz
> ftpserver/logs/domainY/*.gz
> 
> Jeg vil gerne undgå at lave om i mit script hver gang der bliver 
> tilføjet eller fjernet domæner.
> 
> Jeg har kigget på ncftpget som man kan få til at hente filer
> rekursivt,  og slette dem når de er hentet ned.
> Men problemet med det er at hvis man kører det med f.eks.
>    ncftpget -R ftp://ftpserver/logs/*.gz
> så henter det ingenting fordi der i folderen ftp://ftpserver/logs/
> ikke  ligger nogen .gz filer. Det prøver slet ikke underfolderne.
> (Jeg vil helst ikke bare hente * da der også ligger ukomprimerede
> filer,  som er de aktuelle logfiler, og der ikke er nogen grund til
> at hente dem  før de er færdigskrevne).
> 
> Er der en måde jeg kan tvinge ncftpget til at prøve underfoldere,
> selvom  den ikke finder en fil matchende mit pattern i rodfolderen?
> Eller er der andre programmer/metoder som er smartere til at løse
> mit  problem?

Du kan måske få din ftp server til selv at aflevere filerne til den
anden maskine, måske med scp, eller over et NFS share.

Mvh. Jesper


Follow ups

References