← Back to team overview

sslug-teknik team mailing list archive

Re: tar gzip insanity!

 

Lars Lerager Hansen <lars@xxxxxxxxxx> wrote:
: "Lars Lerager Hansen" <lars@xxxxxxxxxx> wrote in message
: news:a2a6vt$4na$1@xxxxxxxxxxxx...
:> #¤%£??£4523$@?£?@$£{@!!"#¤"¤#%!!! SGU!
:>
:> Jeg har en temmeligt vigtig backup liggende på en server i form af en
:> tar.gz-fil. Når jeg downloader den til min maskine(Linux) og prøver at
: pakke
:> den ud fejler den med noget crc32 fejl - det er gzip der fejler, ikke tar.
:> Jeg kan sagtens pakke filen ud på serveren.
:>
:> Jeg kan sjovt nok også pakke filen ud fejlfrit på en win-maskine med
: WinZip.
:> Og nej, det er ikke fordi jeg er kommet til at downloade den i
:> FTP-ASCII-mode!
:>
:> Det er en stor fil - 400MB pakket, og 1,5GB udpakket. Men hvad #@#¤ er
:> problemet? Dårlig ram eller sådan noget? Maskinen plejer ellers at fungere
:> upåklageligt.
:>

: Stift! Hvis jeg gunzipper på Windows-maskinen og bagefter smider filen over
: på Linux'en og untar'er den der, så virker det?!??! Man skulle tro min
: version af gzip er i stykker (gzip 1.3 (1999-12-21)).

Jeg ville lede efter problemet på netværket: Dårlig kabelføring, skummel
hub/switch eller dårlige netkort (Realtek 100Mbit fx.), eller måske
dårlig ram. 

Tar kan sagtens ud-arkivere selvom der er bit-fejl, mens det vil give 
problemet at udpakke den.

Selvom TCP har CRC32 fejl-detekterende checksum, så er det ikke umuligt at
der kan opstå flere bit-fejl i en pakke end den kan detektere, og man derfor
får en fejl-behæftet fil.

Jeg har ikke lige referencen ved hånden, men jeg læste en artikel hvor de
udfra trafikdata udregnede at sandsynligheden for udetekterede bit-fejl
ikke er helt så astronomisk lille som antaget, faktisk var det sandsynligt
at få 1 fejl pr. 1GB, eller i den størrelsesorden.

Mvh Morten
-- 



References