Mathias | raidghost: knørve, knø sammen | 06:36 |
---|---|---|
Mathias | bar jeg som er flink å bruke ord i litt rar kontekst :p | 06:36 |
Mathias | men er jo som regel sånn prosjektene mine starter (og enderľ | 06:37 |
Mathias | )* | 06:37 |
Mathias | er også det den stakkars nextronserveren har vært igjennom, den så ikke veldig glad ut :p | 06:38 |
Malinux | https://forum.openmediavault.org/index.php/Thread/11625-RAID5-Missing-superblocks-after-restart/ | 19:11 |
raidghost | Så der RoyK har du samme issuet som jeg opplever. | 19:17 |
RoyK | raidghost: opplever eller opplevde? | 19:23 |
raidghost | Opplever | 19:27 |
raidghost | Så våger ikke begynne fylle opp raidet før jeg har fått bannskaps problemet bort | 19:28 |
raidghost | Kanskje jeg skal ta å prøve med gpart /dev/sdX å lage blank GPT | 19:31 |
raidghost | gdisk var jo ikke så dumt verktøy | 19:36 |
raidghost | Found valid GPT with protective MBR; using GPT | 19:36 |
raidghost | http://blog.gnub.net/2009/03/die-gpt-die.html | 19:44 |
RoyK | prøv en dd if=/dev/zero bs=1M count=1k of=/dev/sdX hvor X er navnet på raiddiskene for så å sette opp skiten på nytt. forresten - har du hatt noe zfs på denne? | 19:48 |
RoyK | hvis du ikke trenger å utvide raidet i framtida (bortsett fra å bytte til større disker, eller vente til de kommer med koden som tillater utvidelser om et års tid eller så), er nok zfs å foretrekke | 19:49 |
RoyK | og hva slags raidnivå? | 19:49 |
RoyK | pastebin mdadm --create ... | 19:49 |
raidghost | fungere ikke | 19:50 |
raidghost | Problem is that GPT records exists in both the beginning AND the end of a disk - so the usual dd if=/dev/zero of=/dev/yournewdisk count=100 trick won't work. | 19:50 |
raidghost | men ser at det var litt sånn annen kommando det du kom med. så might work;) | 19:51 |
RoyK | raidghost: har du hatt zfs på disse? | 19:51 |
RoyK | mdadm --zero-superblock? | 19:51 |
raidghost | Kan ta å teste den der zero-superblock saken | 19:51 |
raidghost | Nei, diskene har ikke hatt zfs på desse | 19:51 |
raidghost | 8 nye 8TB disker. Som jeg tenkte å slenge opp i raid 6 | 19:52 |
raidghost | skal henge opp litt klær så skal jeg prøve den kommandoen du nevnte | 19:52 |
RoyK | foreslår zfs på dem, jeg | 19:53 |
RoyK | zpool create datapoolenmin raidz2 /dev/sd[bcdefghi] # eller noe | 19:54 |
raidghost | holdet med 1 zfs på vserver, prøver å bruke det riktig. md0 e kos i forhold:P | 19:55 |
RoyK | fordelen med zfs er at alt bare virker | 20:08 |
RoyK | ulempa er at det ikke lar seg utvide med flere disker like greit | 20:12 |
RoyK | ikke ennå, i hvert fall, men det er endel som skjer der nå | 20:12 |
RoyK | …og med zfs får du muligheten til å skru på kompresjon (som er så lett at den er dritrask for ting som komprimeres), egne datasett til hver ting du trenger, full sjekksumming og -leging av dårlige data uten at du trenger å tenke på det og diverse annet | 20:13 |
RoyK | zfs er simpelten er ny æra - intet mindre | 20:15 |
IvarB | RoyK: sa ikke du at zfs var ræva for hjemmebrukere fordi du kan ikke utvide raidet etterhvert? | 20:38 |
RoyK | IvarB: jo, men det ser ut til at det er i ferd med å løses, og med 8x8TB, så gjetter jeg at raidghost ikke kommer til å fylle opp skiten den første tida | 20:59 |
RoyK | IvarB: jeg trudde ikke at de skulle få løst det, men etter siste openzfs-konferanse, ble det lagt fram en god del veldig konkrete planer | 21:00 |
raidghost | da er jeg klar for mdadm --create --verbose /dev/md0 --level=6 --raid-devices=8 /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf/ /dev/sdg /dev/sdh /dev/sdi | 21:03 |
RoyK | raidghost: mdadm --create --verbose /dev/md0 --level=6 --raid-devices=8 /dev/sd{b..i} funker også ;) | 21:04 |
raidghost | Hva har det 1 tallet inni kommandoen å gjøre? :) | 21:06 |
RoyK | IvarB: så jeg er ganske sikker på at jeg kommer til å gå tilbake til zfs så snart den fiksen kommer | 21:07 |
raidghost | FIX? er det noe jeg har gått glipp av;) | 21:07 |
RoyK | raidghost: http://open-zfs.org/w/images/6/68/RAIDZ_Expansion_v2.pdf | 21:07 |
RoyK | raidghost: hva slags ettall? | 21:08 |
raidghost | i den b..1 | 21:09 |
RoyK | b..l | 21:09 |
RoyK | som i L | 21:09 |
RoyK | eh | 21:09 |
RoyK | b..i | 21:09 |
RoyK | som i bokstaven i (I) | 21:09 |
RoyK | prøv å skrive "/dev/sd{b..i}" | 21:09 |
RoyK | eh | 21:09 |
RoyK | echo /dev/sd{b..i} | 21:09 |
RoyK | så ser du at bash utvider det til ei liste | 21:10 |
RoyK | echo /dev/sd{b..z} | 21:10 |
RoyK | trallalla | 21:10 |
raidghost | Høres ut som en eidsvåg låt | 21:11 |
raidghost | :P | 21:11 |
RoyK | hehe | 21:11 |
RoyK | raidghost: men igjen - hvis du ikke trur du kommer til å trenge å utvide den der på et år eller noe, kjør zfs | 21:11 |
RoyK | zfs tåler *mye* juling | 21:11 |
raidghost | datasett meg her og datasett meg der :P | 21:11 |
RoyK | zfs create data/home | 21:12 |
RoyK | zfs create data/home/minbruker | 21:12 |
RoyK | er bare å prøve | 21:12 |
RoyK | du har jo tomme disker | 21:12 |
RoyK | og zfs reparerer seg sjøl | 21:12 |
RoyK | det gjør ikke mdraid | 21:12 |
raidghost | men kan en oppleve sånne superblock missing greier | 21:12 |
raidghost | på zfs? | 21:12 |
RoyK | superblokka på zfs er distribuert på flere steder | 21:13 |
raidghost | trodde den var det på mdraid og | 21:13 |
RoyK | har aldri sett at noe har ramla ut | 21:13 |
RoyK | nei | 21:13 |
raidghost | hvilke chuck size e vanlig på mdraid? | 21:13 |
RoyK | chunk | 21:13 |
raidghost | hørt rykter om at driver en med video /bilder så må en bruke øyeste | 21:13 |
RoyK | neida - 256k er vel standard nå og det holder lenge | 21:14 |
RoyK | dvs at den skriver en kvart meg til hver av diskene | 21:14 |
raidghost | 43TB , burde holde en stund:P | 21:17 |
RoyK | joda | 21:18 |
RoyK | nettopp derfor jeg foreslår zfs | 21:18 |
raidghost | tester mdraid først nu og ser om det slutte å * seg. | 21:19 |
RoyK | …og fordi zfs ikke trenger en full rebuild av *alt* etter at en disk tryner eller noe | 21:19 |
RoyK | har du 10TB på disk, vil en resilver på zfs bare gå gjennom 10TB | 21:19 |
RoyK | med md, går den gjennom alt, siden md ikke ser filsystemet | 21:19 |
RoyK | og sånt har faktisk litt å si | 21:19 |
raidghost | Kan se om jeg tester det på neste arrey | 21:21 |
raidghost | Først skal alt fra vserver over på mediabox. og så blir det vel kanskje å fikse noen større disker med 7200RPm til vserver | 21:21 |
raidghost | får se. | 21:21 |
RoyK | var det 5k4-disker du hadde nå? | 21:22 |
hawken | hadde vært kult om mdadm kunne ta et bitmap fra filsystemet, såvel som "fetch sector from parity" dersom filsystemet ville ha | 21:22 |
hawken | da kunne man fått separasjon mellom fs og raid uten disse ulempene | 21:23 |
RoyK | hawken: den gjør det | 21:23 |
RoyK | dvs md gjør det under filsystemet | 21:23 |
RoyK | går det en sektor, gjenoppretter den fra paritet | 21:23 |
RoyK | eller | 21:23 |
hawken | ideen blir at filsystemet kunne fortelle mdadm hvilke sektorer som trenger å bli resilvered | 21:23 |
RoyK | den gjenoppretter vel ikke - den leser bare fra paritet | 21:23 |
RoyK | joda, men da trenger man filsystem som integrerer med md | 21:23 |
RoyK | og det finnes ikke | 21:24 |
hawken | skulle likt å sett det skje | 21:24 |
RoyK | du har btrfs, da, men det er vel ikke stabilt på 5+ år | 21:24 |
RoyK | jeg har fulgt btrfs-utviklinga i knappe ti år og det er noen år siden jeg slutta å vente | 21:24 |
Generated by irclog2html.py 2.7 by Marius Gedminas - find it at mg.pov.lt!