[12:13] vileni, jesi slozio ti kad netflow sa mikrotikom za daily usage stats i to? [12:16] Mmike: ja kod sebe skupljam netflow statistiku s mikrotika [12:17] obruT, daj neke kivorde, u kaj ih trpas, s cim ih pregledavas i tak to [12:17] aha, ne, ti si svoje neke one go-djidje radio za to? [12:18] da :) napiso collector u golangu i trpam u PG bazu [12:18] zgodno [12:18] al' ja bih nest gotovo :) [12:19] trenutno radim samo neke custom upite/statistike, nikakav poseban sw ne koristim za to [12:19] kod nas je bivsi kolega slozio collector, isto u go-u, koji skuplja logove sa ~100k uređaja (i to glupih uređaja koji nemaju syslog nego moraš ssh na njega i tail -f) [12:20] ~100k uredjaja ? CPE/IAD ? :) [12:21] obruT, jel ja to vidim jos jedno predavanje za dors/cluc ;) [12:21] (sumnjam da imate toliko iptv korisnika) :) [12:21] a i jelly bi mogao nesto :D [12:22] hbogner: pa nije bas neka tema, netflow collectori postoje vec stoljecima :) [12:22] obruT: stb [12:22] 100k ?!? :) [12:22] obruT: imamo [12:23] jebote... [12:23] obruT, Mmike se raspituje pa mozes i ostalima prezentirat, ili bi ti samo o LORA pricao :ds [12:23] obruT: neki imaju 2-3 stb-a [12:23] tv za djecu, tv u spavacoj... [12:24] i tako ja cekam rebuild raid polja od 14 diskova... [12:29] koliki su diskovi ? koji radi ? i jes cito oko izracuna MTBF-a, velicine diska i vjerojatnosti da ti krepa disk za vrijeme rebuilda raida ? :) [12:30] raid10 testiram na 14 diskova od 500gb [12:30] terstiram performanse polja [12:31] imam hardvera pa ima priliku testirati [12:32] Mmike: ja imam nfsen+nfdump [12:32] i radi, ali je ruzan [12:40] vileni, i s tim mosh vidjet daily cumulative ul/dl brojceke za ppp0? mjesecne i to? [12:44] da [12:44] mozes vidjeti i po ip koji je koliko kakvog prometa slao recimo [12:44] sad sam skuzio da mi ovaj ne radi vec dugo [12:47] IMAMO PAPU, IZASAO JE BJELI DIM :D ha ha ha ha [12:47] kolega spojio krivu voltazu na uredjaj :D [12:51] hbogner: kake su to cudne velicine diskova, 500GB [12:52] jelly, sata, wd re [12:53] imam ih rashodovane pa testiram [12:56] 7200rpm? [12:57] raid10 je najzahvalniji za ispade i za iopse [12:57] jer rebuild opterecuje samo 1 disk [12:57] ali moras imat scrubbing bar svakih tjedan-mjesec dana da ne bi bio double fault [13:06] 7200rpm [13:07] interesirale su me performanse, iops-i [13:13] koliko diskova toliko iopsa, ako imas pristojne kontrolere, ne? [13:13] 7200 ce imati latenciju prst-palac za 100-130 iopsa po disku [13:15] 10000rpm ima ~150, 15k cca ~200 iopsa [13:20] jedan kontroler za tih 14 diskova [13:25] ne bi treblao biti frka. ak imas male io da se ne zapuni PCI i ak nije bas 10+ godina star kontroler [13:41] hbogner, de izbaci neke brojeve nekud za taj raid10 i mene zanima [13:41] Mmike, teks e builda polje, ali evo za 4,6,8 diskova [13:42] fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 [13:42] 4x500: read : io=3070.4MB, bw=3000.1KB/s, iops=750, runt=1047665msec; write: io=1025.8MB, bw=1002.6KB/s, iops=250, runt=1047665msec [13:43] evo ovako: http://jebo.me/pas/5 [14:12] 175 po disku je jako dobro, jesi pocistio cache prije toga? :-) [14:12] ili si koristio mali a contiguous dio diska pa je kratko seekao [14:14] glupi stos: ak koristis samo prvu polovicu diska, seek time je (malo vise nego) duplo kraci [14:14] prazni diskovi, svaki put radio od nule, gazio polje i kreirao fs [14:15] da, onda nije realno kao kad imas 50-80% zapunjene diskove [14:16] aha cek to je bio mixed rw test, znaci ukupno 1000 iops sa 4 diska [14:16] da, read 750, write 250 [14:17] ovo je base performance, fio napravi fajl od 4gb pa po njemu rosta [14:18] cisto me interesiralo mogu li dobiti trazene performanse i sa koliko diskova [14:18] tj mogu li to sa x500gb sata diskova ili bas moram nabavljati ssd [14:20] summary 4x500 iops=750/250, 6x500 iops=1070/357, 8x500 iops=1344/449 [14:24] mozes dobit iops, jedino sto neces nikad dobit je latency [14:25] i ako uzmes samo prvih x% diska, dobis jos vise iopsa :-) [14:25] (a fajl od 4GB na 500GB disku je efektivno prvih 1% diska) [14:25] znaci particioniram i uzmem smao prvih 50% diska za raid particiju dobijem bolje rezultate? [14:25] da [14:26] jer efektivno srezes random seek time [14:28] zato si ui dobio 250 iopsa od diska koji inace nema 4ms seek time [14:29] tak su nama storage za baze, 36-40 diskova u raid10, i jos ispred kontroler sa 8GB cachea [14:29] ili 16 sad, ne sjecam se [14:37] ovdje je 3ware kontroler, ali polje je mdadm [14:37] softverski raid [15:17] ugh, 3ware [16:24] ili je lsi, nesjecam se vise [16:24] lejn sam istrazivati [16:24] *ljen [17:01] 28 minuta za POST [17:02] jebemti HPE i tko je to pisao [17:16] sta post? http post request? [17:19] power on self test, ono kad se racunalo ukljuci [17:19] ohhh ono... [17:20] mislim nakon 5 minuta ja bi poceo rastavljat... [17:21] ah i hpe a ne hpb! haha [18:28] to nije najbolja stvar [18:28] kod iduceg reboota se... skrsio UEFI. BSOD u boot firmwareu. [20:07] izgleda da se jedna mrezna kartica krivo naflashala ili crkla, vise je nema u lspci niti u UEFI-ju [22:53] na eurosport 2 utrke dronova :)