sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #57863
Re: linux software raid fryser under formattering
>> Status her til morgen efter ca 8 timers test, passed 41 gange 0 fejl.
>> Jeg har ladet den køre videre til jeg kommer hjem fra arbejde.
>Fint, så er det nok ikke der problemet ligger.
Nej, hvis der stadig ingen fejl er når jeg kommer hjem fra arbejde så
betragter jeg det også som udelukket at fejlen ligger der.
>> >Lad være med at gøre det mens raid er funktionelt.
>>
>> Øhhh, funktionelt ?
>> Det jeg gjorde var :
>> 1. via rescue disk renamede jeg /etc/raidtab så den ikke forsøgte at
starte
>> raid op.
>*host host* persistient superblock ?
>Den finder og starter selv sine raid devices. Check /proc/mdstat
>for om der er nogle startede.
Hmm, jeg har jo bare blindt fulgt den howto jeg havde på disken,
dvs. uden at vide hvad persistent superblock betød.
- Hvad betyder det så ?
Men fakta er, at med min raidtab liggende under /etc så hænger
maskinen under boot. Jeg bootede med mdk8.2 install disk under rescue
mode og renamede raidtab, og så kunne jeg igen boote normalt.
>> 2. Reboot.
>> 3. fdisk, ændre partition type til fd : linux raid autodetect.
>> 4. mkraid --really-force /dev/md[0-3] (en af gangen)
>> 5. mke2fs (både med og uden -j) /dev/md[0-3] (dør ved den første)
>det undrer mig. Det skal den ikke. Har du prøvet med en default
>Linus kerne ?
Nej, for den 2.4.18-6mdk kerne der følger med mdk 8.2 kunne slet ikke
detectere min promise ide raid controller. Det kan de nyere kerner (2.4.19
?)
måske nok, men derudover havde jeg problemer med min i845E chip som
skulle supporteres bedre med -ac kernerne.
Men jeg kan da godt prøve at se om en ren linus-2.4.19 kerne fungerer
bedre mht. software raid.
Men enten er der indført en fejl fra 2.4.20-pre10-ac2 til 2.4.20-rc2-ac3
eller også har jeg gjort noget forkert. (nok nærmere det sidste).
For jeg har som tidligere nævnt haft det hele til at virke med 2 ud af 3
raids med den tidligere -ac kerne...
>> Ja det vidste jeg egentlig godt, jeg tænkte nok bare at jeg var dækket
ind
>> med 3 80 GB diske, og ikke havde behov for at ændre partitions
størrelser.
>> Men man har selvfølgelig flexibiliteten med LVM.
>ja, måske, man ved aldrig hvad der sker i fremtiden.
Jeg prøver måske din opskrift når jeg har fået selve raidet til at virke,
så er det jo bare at omkonfigurere. De eneste data jeg nødigt vil miste er
lilo.conf og min .config til kernen alt andet på den maskine ligger på
cdrom.
{cut]
>> Min primære motivation for at køre raid er performance (uden at skulle
>> ofre pengene på SCSI raid) for at køre videoredigering på maskinen,
>> jeg valgte raid 5 for at have lidt datasikkerhed også.
>dåååårlig ide, raid5 er beregnings tungt. Et bedre valg havde måske
>været raid1+0 eller evt. raid3? 4? hvor paritites disken altid er
>den samme, og så kan man købe en HURTIG disk til det. Og de langsomme
>kører så raid0 over flere diske.
Ok, igen en svipser fra min side. Jeg ræsonnerede bare som så :
raid 0 = performance men den dobbelte risiko for harddisk crash.
raid 5 = performance plus sikkerhed, med lidt ekstra cpu overhead.
Jeg skal vist også læse lidt mere om de forskellige raid levels før
jeg afslutter dette projekt.
Nogle gode links til det ?
>> Jeg kan ikke lade være med at tænke, at der er noget i den kerne jeg har
>> gjort anderledes end med den sidste kerne hvor raid faktisk virkede.
>> Men hvad ?
>Lav en ny ?
Hvis jeg finder en mangel i min .config så vil jeg fluks recompilere igen
for at se om det hjalp mig. Jeg kan også lige prøve den 2.4.19 uden patch.
Mvh Lars
--
Jeg har nogle meninger, blandt andet: "post i den rigtige gruppe",
"klip unødig text væk", "svar nedenunder", "skriv korrekt subject"
"ingen krydspost". Se http://usenet.dk/netikette/citatteknik.html
Follow ups