
W dniu 06.09.2012 06:44, Łukasz Czerepuk pisze: Podpisuje sie z przedmowca. Mialem pododobna sytuacje. Load nie byl zbyt wysoki, a transfer konczyl sie na 100Mbps, oczywiscie linki byly pospinane na 1Gbps. A dalej wiadomo, pasmo dla klientow spadalo, telefony i tak dalej. Kolejki byly napisane z uzyciem HTB. Dla pewnosci przenioslem wszystko na inna maszyne z innymi przerwaniami, myslalem, ze to rozwiaze sytuacje. Nie pomoglo. Rozwiazaniem okazalo sie gruntowne przebudowanie kolejek. Z 20k klas HTB szedlem do 5. Teraz 250Mbps "przerabia" nawet bez zajakniecia. Polecam wiec przyjrzec sie jeszcze raz dla firewalla. Ja stawiam, albo na przerwania, albo na firewall.
W dniu 2012-09-05 23:45, joynet@vp.pl pisze:
Napisz cos wiecej o tych ipsetach, sprzet wyglada ok, problem moze byc z podzialem pasma
Jesli chodzi o ipset to wszystkie reguly ktore wczesniej obslugiwane byly poprzez iptables czyli kazdy komputer to byla jedna linijka w iptables. Teraz jest na kazda podsiec (podsieci jest 23) to osobny ipset a wiec linijek dla iptables / nat jest 23. Do tego jest troche w tabeli nat dla publicznych IP i tyle. Ogolnie duzo tego nie ma:
# iptables -t nat -L -nv|wc -l 116
# iptables -L FORWARD -nv|wc -l 36
Rzeczywiscie najwiekszym problemem moze byc HTB:
# tc qdisc show qdisc htb 1: dev eth0 root refcnt 6 r2q 10 default 0 direct_packets_stat 3072877145 qdisc htb 1: dev eth1 root refcnt 6 r2q 10 default 0 direct_packets_stat 459710 qdisc htb 1: dev imq0 root refcnt 3 r2q 10 default 0 direct_packets_stat 933285
# tc class show dev eth1|wc -l 352
# tc class show dev imq0|wc -l 352
Wlaczylem jeszcze irqbalanace. Zobaczymy czy cos sie zmieni. _______________________________________________ lms mailing list lms@lists.lms.org.pl http://lists.lms.org.pl/mailman/listinfo/lms
irq balance niczego nie zmieni, masz do bani podzial pasma polecam przy tylu klasach sieciowych zastosowac filtry mieszajace, dzialaja super