[12:13] <Mmike> vileni, jesi slozio ti kad netflow sa mikrotikom za daily usage stats i to?
[12:16] <obruT> Mmike: ja kod sebe skupljam netflow statistiku s mikrotika
[12:17] <Mmike> obruT, daj neke kivorde, u kaj ih trpas, s cim ih pregledavas i tak to
[12:17] <Mmike> aha, ne, ti si svoje neke one go-djidje radio za to?
[12:18] <obruT> da :) napiso collector u golangu i trpam u PG bazu
[12:18] <Mmike> zgodno
[12:18] <Mmike> al' ja bih nest gotovo :)
[12:19] <obruT> trenutno radim samo neke custom upite/statistike, nikakav poseban sw ne koristim za to
[12:19] <jelly> kod nas je bivsi kolega slozio collector, isto u go-u, koji skuplja logove sa ~100k uređaja (i to glupih uređaja koji nemaju syslog nego moraš ssh na njega i tail -f)
[12:20] <obruT> ~100k uredjaja ? CPE/IAD ? :)
[12:21] <hbogner> obruT, jel ja to vidim jos jedno predavanje za dors/cluc ;)
[12:21] <obruT> (sumnjam da imate toliko iptv korisnika) :)
[12:21] <hbogner> a i jelly bi mogao nesto :D
[12:22] <obruT> hbogner: pa nije bas neka tema, netflow collectori postoje vec stoljecima :)
[12:22] <jelly> obruT: stb
[12:22] <obruT> 100k ?!? :)
[12:22] <jelly> obruT: imamo
[12:23] <obruT> jebote...
[12:23] <hbogner> obruT, Mmike se raspituje pa mozes i ostalima prezentirat, ili bi ti samo o LORA pricao :ds
[12:23] <jelly> obruT: neki imaju 2-3 stb-a
[12:23] <jelly> tv za djecu, tv u spavacoj...
[12:24] <hbogner> i tako ja cekam rebuild raid polja od 14 diskova...
[12:29] <obruT> koliki su diskovi ? koji radi ? i jes cito oko izracuna MTBF-a, velicine diska i vjerojatnosti da ti krepa disk za vrijeme rebuilda raida ? :)
[12:30] <hbogner> raid10 testiram na 14 diskova od 500gb
[12:30] <hbogner> terstiram performanse polja
[12:31] <hbogner> imam hardvera pa ima priliku testirati
[12:32] <vileni> Mmike: ja imam nfsen+nfdump
[12:32] <vileni> i radi, ali je ruzan
[12:40] <Mmike> vileni, i s tim mosh vidjet daily cumulative ul/dl brojceke za ppp0? mjesecne i to?
[12:44] <vileni> da
[12:44] <vileni> mozes vidjeti i po ip koji je koliko kakvog prometa slao recimo
[12:44] <vileni> sad sam skuzio da mi ovaj ne radi vec dugo
[12:47] <hbogner> IMAMO PAPU, IZASAO JE BJELI DIM :D ha ha ha ha
[12:47] <hbogner> kolega spojio krivu voltazu na uredjaj :D
[12:51] <jelly> hbogner: kake su to cudne velicine diskova, 500GB
[12:52] <hbogner> jelly, sata, wd re
[12:53] <hbogner> imam ih rashodovane pa testiram
[12:56] <jelly> 7200rpm?
[12:57] <jelly> raid10 je najzahvalniji za ispade i za iopse
[12:57] <jelly> jer rebuild opterecuje samo 1 disk
[12:57] <jelly> ali moras imat scrubbing bar svakih tjedan-mjesec dana da ne bi bio double fault
[13:06] <hbogner> 7200rpm
[13:07] <hbogner> interesirale su me performanse, iops-i
[13:13] <jelly> koliko diskova toliko iopsa, ako imas pristojne kontrolere, ne?
[13:13] <jelly> 7200 ce imati latenciju prst-palac za 100-130 iopsa po disku
[13:15] <jelly> 10000rpm ima ~150, 15k cca ~200 iopsa
[13:20] <hbogner> jedan kontroler za tih 14 diskova
[13:25] <jelly> ne bi treblao biti frka. ak imas male io da se ne zapuni PCI i ak nije bas 10+ godina star kontroler
[13:41] <Mmike> hbogner, de izbaci neke brojeve nekud za taj raid10 i mene zanima
[13:41] <hbogner> Mmike, teks e builda polje, ali evo za 4,6,8 diskova
[13:42] <hbogner> fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75
[13:42] <hbogner> 4x500: read : io=3070.4MB, bw=3000.1KB/s, iops=750, runt=1047665msec; write: io=1025.8MB, bw=1002.6KB/s, iops=250, runt=1047665msec
[13:43] <hbogner> evo ovako: http://jebo.me/pas/5
[14:12] <jelly> 175 po disku je jako dobro, jesi pocistio cache prije toga? :-)
[14:12] <jelly> ili si koristio mali a contiguous dio diska pa je kratko seekao
[14:14] <jelly> glupi stos: ak koristis samo prvu polovicu diska, seek time je (malo vise nego) duplo kraci
[14:14] <hbogner> prazni diskovi, svaki put radio od nule, gazio polje i kreirao fs
[14:15] <jelly> da, onda nije realno kao kad imas 50-80% zapunjene diskove
[14:16] <jelly> aha cek to je bio mixed rw test, znaci ukupno 1000 iops sa 4 diska
[14:16] <hbogner> da, read 750, write 250
[14:17] <hbogner> ovo je base performance, fio napravi fajl od 4gb pa po njemu rosta
[14:18] <hbogner> cisto me interesiralo mogu li dobiti trazene performanse i sa koliko diskova
[14:18] <hbogner> tj mogu li to sa x500gb sata diskova ili bas moram nabavljati ssd
[14:20] <hbogner> summary 4x500 iops=750/250, 6x500 iops=1070/357, 8x500 iops=1344/449
[14:24] <jelly> mozes dobit iops, jedino sto neces nikad dobit je latency
[14:25] <jelly> i ako uzmes samo prvih x% diska, dobis jos vise iopsa :-)
[14:25] <jelly> (a fajl od 4GB na 500GB disku je efektivno prvih 1% diska)
[14:25] <hbogner> znaci particioniram i uzmem smao prvih 50% diska za raid particiju dobijem bolje rezultate?
[14:25] <jelly> da
[14:26] <jelly> jer efektivno srezes random seek time
[14:28] <jelly> zato si ui dobio 250 iopsa od diska koji inace nema 4ms seek time
[14:29] <jelly> tak su nama storage za baze, 36-40 diskova u raid10, i jos ispred kontroler sa 8GB cachea
[14:29] <jelly> ili 16 sad, ne sjecam se
[14:37] <hbogner> ovdje je 3ware kontroler, ali polje je mdadm
[14:37] <hbogner> softverski raid
[15:17] <jelly> ugh, 3ware
[16:24] <hbogner> ili je lsi, nesjecam se vise
[16:24] <hbogner> lejn sam istrazivati
[16:24] <hbogner> *ljen
[17:01] <jelly> 28 minuta za POST
[17:02] <jelly> jebemti HPE i tko je to pisao
[17:16] <sillyslux> sta post? http post request?
[17:19] <jelly> power on self test, ono kad se racunalo ukljuci
[17:19] <sillyslux> ohhh ono...
[17:20] <sillyslux> mislim nakon 5 minuta ja bi poceo rastavljat...
[17:21] <sillyslux> ah i hpe a ne hpb! haha
[18:28] <jelly> to nije najbolja stvar
[18:28] <jelly> kod iduceg reboota se... skrsio UEFI.  BSOD u boot firmwareu.
[20:07] <jelly> izgleda da se jedna mrezna kartica krivo naflashala ili crkla, vise je nema u lspci niti u UEFI-ju
[22:53] <obruT> na eurosport 2 utrke dronova :)