sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #81675
Re: ncftpget -R
> Jeg vil hente logfiler fra en webserver med flere domæner for at
> kunne behandle dem lokalt.
> Filerne ligger således:
> ftpserver/logs/domainX/*.gz
> ftpserver/logs/domainY/*.gz
>
> Jeg vil gerne undgå at lave om i mit script hver gang der bliver
> tilføjet eller fjernet domæner.
>
> Jeg har kigget på ncftpget som man kan få til at hente filer
> rekursivt, og slette dem når de er hentet ned.
> Men problemet med det er at hvis man kører det med f.eks.
> ncftpget -R ftp://ftpserver/logs/*.gz
> så henter det ingenting fordi der i folderen ftp://ftpserver/logs/
> ikke ligger nogen .gz filer. Det prøver slet ikke underfolderne.
> (Jeg vil helst ikke bare hente * da der også ligger ukomprimerede
> filer, som er de aktuelle logfiler, og der ikke er nogen grund til
> at hente dem før de er færdigskrevne).
>
> Er der en måde jeg kan tvinge ncftpget til at prøve underfoldere,
> selvom den ikke finder en fil matchende mit pattern i rodfolderen?
> Eller er der andre programmer/metoder som er smartere til at løse
> mit problem?
Du kan måske få din ftp server til selv at aflevere filerne til den
anden maskine, måske med scp, eller over et NFS share.
Mvh. Jesper
Follow ups
References