← Back to team overview

sslug-teknik team mailing list archive

ncftpget -R

 

Hej.

Jeg vil hente logfiler fra en webserver med flere domæner for at kunne behandle dem lokalt.
Filerne ligger således:
ftpserver/logs/domainX/*.gz
ftpserver/logs/domainY/*.gz

Jeg vil gerne undgå at lave om i mit script hver gang der bliver tilføjet eller fjernet domæner.

Jeg har kigget på ncftpget som man kan få til at hente filer rekursivt, og slette dem når de er hentet ned.
Men problemet med det er at hvis man kører det med f.eks.
  ncftpget -R ftp://ftpserver/logs/*.gz
så henter det ingenting fordi der i folderen ftp://ftpserver/logs/ ikke ligger nogen .gz filer. Det prøver slet ikke underfolderne. (Jeg vil helst ikke bare hente * da der også ligger ukomprimerede filer, som er de aktuelle logfiler, og der ikke er nogen grund til at hente dem før de er færdigskrevne).

Er der en måde jeg kan tvinge ncftpget til at prøve underfoldere, selvom den ikke finder en fil matchende mit pattern i rodfolderen? Eller er der andre programmer/metoder som er smartere til at løse mit problem?

Mvh Rasmus


Follow ups