[06:36] <Mathias> raidghost: knørve, knø sammen
[06:36] <Mathias> bar jeg som er flink å bruke ord i litt rar kontekst :p
[06:37] <Mathias> men er jo som regel sånn prosjektene mine starter (og enderľ
[06:37] <Mathias> )*
[06:38] <Mathias> er også det den stakkars nextronserveren har vært igjennom, den så ikke veldig glad ut :p
[19:11] <Malinux> https://forum.openmediavault.org/index.php/Thread/11625-RAID5-Missing-superblocks-after-restart/
[19:17] <raidghost> Så der RoyK har du samme issuet som jeg opplever.
[19:23] <RoyK> raidghost: opplever eller opplevde?
[19:27] <raidghost> Opplever
[19:28] <raidghost> Så våger ikke begynne fylle opp raidet før jeg har fått bannskaps problemet bort
[19:31] <raidghost> Kanskje jeg skal ta å prøve med gpart /dev/sdX å lage blank GPT
[19:36] <raidghost> gdisk var jo ikke så dumt verktøy
[19:36] <raidghost> Found valid GPT with protective MBR; using GPT
[19:44] <raidghost> http://blog.gnub.net/2009/03/die-gpt-die.html
[19:48] <RoyK> prøv en dd if=/dev/zero bs=1M count=1k of=/dev/sdX hvor X er navnet på raiddiskene for så å sette opp skiten på nytt. forresten - har du hatt noe zfs på denne?
[19:49] <RoyK> hvis du ikke trenger å utvide raidet i framtida (bortsett fra å bytte til større disker, eller vente til de kommer med koden som tillater utvidelser om et års tid eller så), er nok zfs å foretrekke
[19:49] <RoyK> og hva slags raidnivå?
[19:49] <RoyK> pastebin mdadm --create ...
[19:50] <raidghost> fungere ikke
[19:50] <raidghost> Problem is that GPT records exists in both the beginning AND the end of a disk - so the usual dd if=/dev/zero of=/dev/yournewdisk count=100 trick won't work.
[19:51] <raidghost> men ser at det var litt sånn annen kommando det du kom med. så might work;)
[19:51] <RoyK> raidghost: har du hatt zfs på disse?
[19:51] <RoyK> mdadm --zero-superblock?
[19:51] <raidghost> Kan ta å teste den der zero-superblock saken
[19:51] <raidghost> Nei, diskene har ikke hatt zfs på desse
[19:52] <raidghost> 8 nye 8TB disker. Som jeg tenkte å slenge opp i raid 6
[19:52] <raidghost> skal henge opp litt klær så skal jeg prøve den kommandoen du nevnte
[19:53] <RoyK> foreslår zfs på dem, jeg
[19:54] <RoyK> zpool create datapoolenmin raidz2 /dev/sd[bcdefghi] # eller noe
[19:55] <raidghost> holdet med 1 zfs på vserver, prøver å bruke det riktig. md0 e kos i forhold:P
[20:08] <RoyK> fordelen med zfs er at alt bare virker
[20:12] <RoyK> ulempa er at det ikke lar seg utvide med flere disker like greit
[20:12] <RoyK> ikke ennå, i hvert fall, men det er endel som skjer der nå
[20:13] <RoyK> …og med zfs får du muligheten til å skru på kompresjon (som er så lett at den er dritrask for ting som komprimeres), egne datasett til hver ting du trenger, full sjekksumming og -leging av dårlige data uten at du trenger å tenke på det og diverse annet
[20:15] <RoyK> zfs er simpelten er ny æra - intet mindre
[20:38] <IvarB> RoyK: sa ikke du at zfs var ræva for hjemmebrukere fordi du kan ikke utvide raidet etterhvert?
[20:59] <RoyK> IvarB: jo, men det ser ut til at det er i ferd med å løses, og med 8x8TB, så gjetter jeg at raidghost ikke kommer til å fylle opp skiten den første tida
[21:00] <RoyK> IvarB: jeg trudde ikke at de skulle få løst det, men etter siste openzfs-konferanse, ble det lagt fram en god del veldig konkrete planer
[21:03] <raidghost> da er jeg klar for mdadm --create --verbose /dev/md0 --level=6 --raid-devices=8 /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf/ /dev/sdg /dev/sdh /dev/sdi
[21:04] <RoyK> raidghost: mdadm --create --verbose /dev/md0 --level=6 --raid-devices=8 /dev/sd{b..i} funker også ;)
[21:06] <raidghost> Hva har det 1 tallet inni kommandoen å gjøre? :)
[21:07] <RoyK> IvarB: så jeg er ganske sikker på at jeg kommer til å gå tilbake til zfs så snart den fiksen kommer
[21:07] <raidghost> FIX? er det noe jeg har gått glipp av;)
[21:07] <RoyK> raidghost: http://open-zfs.org/w/images/6/68/RAIDZ_Expansion_v2.pdf
[21:08] <RoyK> raidghost: hva slags ettall?
[21:09] <raidghost> i den b..1
[21:09] <RoyK> b..l
[21:09] <RoyK> som i L
[21:09] <RoyK> eh
[21:09] <RoyK> b..i
[21:09] <RoyK> som i bokstaven i (I)
[21:09] <RoyK> prøv å skrive "/dev/sd{b..i}"
[21:09] <RoyK> eh
[21:09] <RoyK> echo /dev/sd{b..i}
[21:10] <RoyK> så ser du at bash utvider det til ei liste
[21:10] <RoyK> echo /dev/sd{b..z}
[21:10] <RoyK> trallalla
[21:11] <raidghost> Høres ut som en eidsvåg låt
[21:11] <raidghost> :P
[21:11] <RoyK> hehe
[21:11] <RoyK> raidghost: men igjen - hvis du ikke trur du kommer til å trenge å utvide den der på et år eller noe, kjør zfs
[21:11] <RoyK> zfs tåler *mye* juling
[21:11] <raidghost> datasett meg her og datasett meg der :P
[21:12] <RoyK> zfs create data/home
[21:12] <RoyK> zfs create data/home/minbruker
[21:12] <RoyK> er bare å prøve
[21:12] <RoyK> du har jo tomme disker
[21:12] <RoyK> og zfs reparerer seg sjøl
[21:12] <RoyK> det gjør ikke mdraid
[21:12] <raidghost> men kan en oppleve sånne superblock missing greier
[21:12] <raidghost> på zfs?
[21:13] <RoyK> superblokka på zfs er distribuert på flere steder
[21:13] <raidghost> trodde den var det på mdraid og
[21:13] <RoyK> har aldri sett at noe har ramla ut
[21:13] <RoyK> nei
[21:13] <raidghost> hvilke chuck size e vanlig på mdraid?
[21:13] <RoyK> chunk
[21:13] <raidghost> hørt rykter om at driver en med video /bilder så må en bruke øyeste
[21:14] <RoyK> neida - 256k er vel standard nå og det holder lenge
[21:14] <RoyK> dvs at den skriver en kvart meg til hver av diskene
[21:17] <raidghost> 43TB , burde holde en stund:P
[21:18] <RoyK> joda
[21:18] <RoyK> nettopp derfor jeg foreslår zfs
[21:19] <raidghost> tester mdraid først nu og ser om det slutte å * seg.
[21:19] <RoyK> …og fordi zfs ikke trenger en full rebuild av *alt* etter at en disk tryner eller noe
[21:19] <RoyK> har du 10TB på disk, vil en resilver på zfs bare gå gjennom 10TB
[21:19] <RoyK> med md, går den gjennom alt, siden md ikke ser filsystemet
[21:19] <RoyK> og sånt har faktisk litt å si
[21:21] <raidghost> Kan se om jeg tester det på neste arrey
[21:21] <raidghost> Først skal alt fra vserver over på mediabox. og så blir det vel kanskje å fikse noen større disker med 7200RPm til vserver
[21:21] <raidghost> får se.
[21:22] <RoyK> var det 5k4-disker du hadde nå?
[21:22] <hawken> hadde vært kult om mdadm kunne ta et bitmap fra filsystemet, såvel som "fetch sector from parity" dersom filsystemet ville ha
[21:23] <hawken> da kunne man fått separasjon mellom fs og raid uten disse ulempene
[21:23] <RoyK> hawken: den gjør det
[21:23] <RoyK> dvs md gjør det under filsystemet
[21:23] <RoyK> går det en sektor, gjenoppretter den fra paritet
[21:23] <RoyK> eller
[21:23] <hawken> ideen blir at filsystemet kunne fortelle mdadm hvilke sektorer som trenger å bli resilvered
[21:23] <RoyK> den gjenoppretter vel ikke - den leser bare fra paritet
[21:23] <RoyK> joda, men da trenger man filsystem som integrerer med md
[21:24] <RoyK> og det finnes ikke
[21:24] <hawken> skulle likt å sett det skje
[21:24] <RoyK> du har btrfs, da, men det er vel ikke stabilt på 5+ år
[21:24] <RoyK> jeg har fulgt btrfs-utviklinga i knappe ti år og det er noen år siden jeg slutta å vente