Prohlížíte starou verzi této stránky. Zobrazit aktuální verzi.

Porovnat s aktuální Obnovit tuto verzi Zobrazit historii stránky

Verze 1 Aktuální »

Soucasny stav (listopad 2011)

Kendy @ https://hlasovani.hkfree.org/hlas/hlasuj.php?id=1863 :

Nase igw1 a zacina i igw2 nestihat "prenaset" provoz.
V soucasne chvili je igw1 pri saturaci schopna uroutovat ~550Mbit a ani tuk vic.
igw2 po rozlozeni zateze je na tom o trosku lepe. Pred rozlozenim mela strop 632Mbit. Nyni jsme se dotkli az 780Mbit, ale to neresi igw1, ktera nestiha a rozlozit zatez na igw1 nepomohlo.
Problem je primo na sitovkach, ktere vytezuji system interrupts a vic nez tech 550Mbit igw1 neda.

Nastrel - TCP tunning, bonding, 10Gb

--------- Forwarded message ---------
From: coudek <blueli@seznam.cz>
Date: 2011/11/15
Subject: Re: [SO] Hlasovani VV 1863
To: so@hkfree.org

Ahoj,

S nakupem serveru to souvisi tak na 50%, ale napisu to sem:

Preptaval jsem se znamych lidi co maji zkusenosti s provozem vysokorychlostnich serveru na linuxu. A mam par poznatku o ktere se s vami v sirsi diskuzi rozdelim:

Poznatky:

1) I pres dostacujici CPU vykon se muze stat ze se z 1GB karty dostane mene, napriklad 800-900Mbit/s. Vykon se da poladit pomoci tunningu tcp/ip stacku a pomoci parametru NIC karty. S nejvetsi pravdepodobnosti zalezi na druhu provozu. Clovek od ktereho mam informace provozuje servery ktere jsou poskytovatele obsahu, tzn. je tam vetsi prostor pro tunning tcp/ip nez jako router. Jim se pomoci tunningu podarilo zvysit propustnost o cca 150Mbit/s ale stale to bylo mene nez 1Gbit/s.(myslim ze rikal neco okolo tech 850Mbit/s). Zpusob jak tuningovali tcp/ip a NIC karty muzu ziskat.

2) Jako jedno z moznych reseni je portchannel(bonding), podle referenci meli po pouziti bondingu a vetsim zatizenim problem s packetloss. Coz zase muze mit souvislost s vykonosti serveru a mozna nejaky problem s modulem v jadre ktery zajistuje bonding. Samozrejmne nevim jestli se u nas projevi.

3) Vcelku kladna zkusenosti je s 10Gbit/s karet na linuxu. Musi byt dostatecne vykonny server, propustnost PCI sbernice(dulezita vec??). Splnuje tohle nas novy server? Ja sam nevim. Nize jsou nejake linky na whitepapery kde jsou popsane vykonove testy 10Gbit/s karet pod linuxem ve vztahu k pouzite procesorove platforme a rychlosti sbernic.

Navrh do budoucna:

Osobne si myslim ze by bylo minimalne zajimave zauvazovat o prechodu igwcek + L3 switche(u) na rychlost 10Gbit/s. V pripade ze budeme pozadovat vetsi rychlost do prahy nez 1Gbit/s se stejne interface 10Gbit/s nevyhneme a cenove to uz neni zase tak obrovska investice.

Investice:
Cenove 10Gbit/s intel karta do serveru je cca 30k Kc
L3 switch s 2x 10Gbit/s uplink je cca 100k Kc(cisco bude asi drazsi) - tento udaj nutno overit lepe
vykone servery + dostatek pameti - dulezite overit zda je procesor i sbernice dostatecne rychla

coudek

Literatura: http://www.csc.kth.se/~olofh/10G_OSR/10Gbps.pdf http://www.slideshare.net/brouer/linuxcon2009-10gbits-bidirectional-routing-on-standard-hardware-running-linux