sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #81673
ncftpget -R
Hej.
Jeg vil hente logfiler fra en webserver med flere domæner for at kunne
behandle dem lokalt.
Filerne ligger således:
ftpserver/logs/domainX/*.gz
ftpserver/logs/domainY/*.gz
Jeg vil gerne undgå at lave om i mit script hver gang der bliver
tilføjet eller fjernet domæner.
Jeg har kigget på ncftpget som man kan få til at hente filer rekursivt,
og slette dem når de er hentet ned.
Men problemet med det er at hvis man kører det med f.eks.
ncftpget -R ftp://ftpserver/logs/*.gz
så henter det ingenting fordi der i folderen ftp://ftpserver/logs/ ikke
ligger nogen .gz filer. Det prøver slet ikke underfolderne.
(Jeg vil helst ikke bare hente * da der også ligger ukomprimerede filer,
som er de aktuelle logfiler, og der ikke er nogen grund til at hente dem
før de er færdigskrevne).
Er der en måde jeg kan tvinge ncftpget til at prøve underfoldere, selvom
den ikke finder en fil matchende mit pattern i rodfolderen?
Eller er der andre programmer/metoder som er smartere til at løse mit
problem?
Mvh Rasmus
Follow ups