[06:36] raidghost: knørve, knø sammen [06:36] bar jeg som er flink å bruke ord i litt rar kontekst :p [06:37] men er jo som regel sånn prosjektene mine starter (og enderľ [06:37] )* [06:38] er også det den stakkars nextronserveren har vært igjennom, den så ikke veldig glad ut :p [19:11] https://forum.openmediavault.org/index.php/Thread/11625-RAID5-Missing-superblocks-after-restart/ [19:17] Så der RoyK har du samme issuet som jeg opplever. [19:23] raidghost: opplever eller opplevde? [19:27] Opplever [19:28] Så våger ikke begynne fylle opp raidet før jeg har fått bannskaps problemet bort [19:31] Kanskje jeg skal ta å prøve med gpart /dev/sdX å lage blank GPT [19:36] gdisk var jo ikke så dumt verktøy [19:36] Found valid GPT with protective MBR; using GPT [19:44] http://blog.gnub.net/2009/03/die-gpt-die.html [19:48] prøv en dd if=/dev/zero bs=1M count=1k of=/dev/sdX hvor X er navnet på raiddiskene for så å sette opp skiten på nytt. forresten - har du hatt noe zfs på denne? [19:49] hvis du ikke trenger å utvide raidet i framtida (bortsett fra å bytte til større disker, eller vente til de kommer med koden som tillater utvidelser om et års tid eller så), er nok zfs å foretrekke [19:49] og hva slags raidnivå? [19:49] pastebin mdadm --create ... [19:50] fungere ikke [19:50] Problem is that GPT records exists in both the beginning AND the end of a disk - so the usual dd if=/dev/zero of=/dev/yournewdisk count=100 trick won't work. [19:51] men ser at det var litt sånn annen kommando det du kom med. så might work;) [19:51] raidghost: har du hatt zfs på disse? [19:51] mdadm --zero-superblock? [19:51] Kan ta å teste den der zero-superblock saken [19:51] Nei, diskene har ikke hatt zfs på desse [19:52] 8 nye 8TB disker. Som jeg tenkte å slenge opp i raid 6 [19:52] skal henge opp litt klær så skal jeg prøve den kommandoen du nevnte [19:53] foreslår zfs på dem, jeg [19:54] zpool create datapoolenmin raidz2 /dev/sd[bcdefghi] # eller noe [19:55] holdet med 1 zfs på vserver, prøver å bruke det riktig. md0 e kos i forhold:P [20:08] fordelen med zfs er at alt bare virker [20:12] ulempa er at det ikke lar seg utvide med flere disker like greit [20:12] ikke ennå, i hvert fall, men det er endel som skjer der nå [20:13] …og med zfs får du muligheten til å skru på kompresjon (som er så lett at den er dritrask for ting som komprimeres), egne datasett til hver ting du trenger, full sjekksumming og -leging av dårlige data uten at du trenger å tenke på det og diverse annet [20:15] zfs er simpelten er ny æra - intet mindre [20:38] RoyK: sa ikke du at zfs var ræva for hjemmebrukere fordi du kan ikke utvide raidet etterhvert? [20:59] IvarB: jo, men det ser ut til at det er i ferd med å løses, og med 8x8TB, så gjetter jeg at raidghost ikke kommer til å fylle opp skiten den første tida [21:00] IvarB: jeg trudde ikke at de skulle få løst det, men etter siste openzfs-konferanse, ble det lagt fram en god del veldig konkrete planer [21:03] da er jeg klar for mdadm --create --verbose /dev/md0 --level=6 --raid-devices=8 /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf/ /dev/sdg /dev/sdh /dev/sdi [21:04] raidghost: mdadm --create --verbose /dev/md0 --level=6 --raid-devices=8 /dev/sd{b..i} funker også ;) [21:06] Hva har det 1 tallet inni kommandoen å gjøre? :) [21:07] IvarB: så jeg er ganske sikker på at jeg kommer til å gå tilbake til zfs så snart den fiksen kommer [21:07] FIX? er det noe jeg har gått glipp av;) [21:07] raidghost: http://open-zfs.org/w/images/6/68/RAIDZ_Expansion_v2.pdf [21:08] raidghost: hva slags ettall? [21:09] i den b..1 [21:09] b..l [21:09] som i L [21:09] eh [21:09] b..i [21:09] som i bokstaven i (I) [21:09] prøv å skrive "/dev/sd{b..i}" [21:09] eh [21:09] echo /dev/sd{b..i} [21:10] så ser du at bash utvider det til ei liste [21:10] echo /dev/sd{b..z} [21:10] trallalla [21:11] Høres ut som en eidsvåg låt [21:11] :P [21:11] hehe [21:11] raidghost: men igjen - hvis du ikke trur du kommer til å trenge å utvide den der på et år eller noe, kjør zfs [21:11] zfs tåler *mye* juling [21:11] datasett meg her og datasett meg der :P [21:12] zfs create data/home [21:12] zfs create data/home/minbruker [21:12] er bare å prøve [21:12] du har jo tomme disker [21:12] og zfs reparerer seg sjøl [21:12] det gjør ikke mdraid [21:12] men kan en oppleve sånne superblock missing greier [21:12] på zfs? [21:13] superblokka på zfs er distribuert på flere steder [21:13] trodde den var det på mdraid og [21:13] har aldri sett at noe har ramla ut [21:13] nei [21:13] hvilke chuck size e vanlig på mdraid? [21:13] chunk [21:13] hørt rykter om at driver en med video /bilder så må en bruke øyeste [21:14] neida - 256k er vel standard nå og det holder lenge [21:14] dvs at den skriver en kvart meg til hver av diskene [21:17] 43TB , burde holde en stund:P [21:18] joda [21:18] nettopp derfor jeg foreslår zfs [21:19] tester mdraid først nu og ser om det slutte å * seg. [21:19] …og fordi zfs ikke trenger en full rebuild av *alt* etter at en disk tryner eller noe [21:19] har du 10TB på disk, vil en resilver på zfs bare gå gjennom 10TB [21:19] med md, går den gjennom alt, siden md ikke ser filsystemet [21:19] og sånt har faktisk litt å si [21:21] Kan se om jeg tester det på neste arrey [21:21] Først skal alt fra vserver over på mediabox. og så blir det vel kanskje å fikse noen større disker med 7200RPm til vserver [21:21] får se. [21:22] var det 5k4-disker du hadde nå? [21:22] hadde vært kult om mdadm kunne ta et bitmap fra filsystemet, såvel som "fetch sector from parity" dersom filsystemet ville ha [21:23] da kunne man fått separasjon mellom fs og raid uten disse ulempene [21:23] hawken: den gjør det [21:23] dvs md gjør det under filsystemet [21:23] går det en sektor, gjenoppretter den fra paritet [21:23] eller [21:23] ideen blir at filsystemet kunne fortelle mdadm hvilke sektorer som trenger å bli resilvered [21:23] den gjenoppretter vel ikke - den leser bare fra paritet [21:23] joda, men da trenger man filsystem som integrerer med md [21:24] og det finnes ikke [21:24] skulle likt å sett det skje [21:24] du har btrfs, da, men det er vel ikke stabilt på 5+ år [21:24] jeg har fulgt btrfs-utviklinga i knappe ti år og det er noen år siden jeg slutta å vente