Gigabit ethernet netwerk koppelen.

Vraagje: Iemand wel eens problemen gehad met het koppelen,van netwerkkabels
binnen een Gigabit netwerk, dit met gebruik van de de z.g.n netwerk koppelstukjes?
Zou dit problemen op kunnen leveren?

Die RJ45 dingen zijn er in zowel 'recht' als 'krom' (gespiegeld; hoe heet dat officieel??). Verder zijn ze niet altijd vol bedraad. Even open maken dus en kijken hoe de jouwe in elkaar zit.

Ik heb er geen problemen mee gehad, al zit je waarschijnlijk wel wat buiten spec te pielen.

Zorg dat je NOOIT, NOOIT, NOOIT wat met Versatel Tele2 te maken krijgt!

Op 17 maart 2006 11:09:49 schreef Marco69:
Ik heb er geen problemen mee gehad, al zit je waarschijnlijk wel wat buiten spec te pielen.

Dus wat betreft specificaties, zou het er niet betrouwbaarder op worden.
Dus beter nieuwe cat5 bedrading trekken. thanks,

Op 17 maart 2006 11:09:49 schreef Marco69:
'recht' als 'krom' (gespiegeld; hoe heet dat officieel??).

Dat heet straight (recht) of crossover (krom) officieel...
Netwerk koppelstukjes zouden prima kunnen werken mits alle pennen (draden) zijn aangesloten. Gigabit netwerken maken gebruik van alle 8 aders in de netwerkkabel, dit in tegenstelling tot 10/100mbit, deze gebruikt maar 4 aders.

free_electron

Silicon Member

how !
netwerk koppelstukjes hebben niet noodzakelijk alle aders ! en bovendien zijn ze waarschijnlijk niet op de juiste manier gekruist ...

normaal worden de 2 niet gebruikte paren recht doorverbonden. voor 1000baset moeten ook die gekruist liggen dacht ik ( tenminste als je ene crossover kabel wilt maken. )

alhoewel ... de meest 1000 base t kaarten zijn auto-mdx dus zou het eigenlijk niks moge uitmaken

wel weet ik dat je CAT-5e of Cat6 moet hebben ! die e is belangrijk
en koop gene goedkopen brol.
let erop dat alle aderparen een andere spoed gebruiken voor hun twisting , en dat er ene plastic 'filler' in de kabel zit die de aderparen gescheiden houdt.

Professioneel ElectronenTemmer - siliconvalleygarage.com - De voltooid verleden tijd van 'halfgeleider' is 'zand' ... US 8,032,693 / US 7,714,746 / US 7,355,303 / US 7,098,557 / US 6,762,632 / EP 1804159 - Real programmers write Hex into ROM

Op 17 maart 2006 17:15:32 schreef free_electron:
how !
netwerk koppelstukjes hebben niet noodzakelijk alle aders ! en bovendien zijn ze waarschijnlijk niet op de juiste manier gekruist ...

normaal worden de 2 niet gebruikte paren recht doorverbonden. voor 1000baset moeten ook die gekruist liggen dacht ik ( tenminste als je ene crossover kabel wilt maken. )

alhoewel ... de meest 1000 base t kaarten zijn auto-mdx dus zou het eigenlijk niks moge uitmaken

wel weet ik dat je CAT-5e of Cat6 moet hebben ! die e is belangrijk
en koop gene goedkopen brol.
let erop dat alle aderparen een andere spoed gebruiken voor hun twisting , en dat er ene plastic 'filler' in de kabel zit die de aderparen gescheiden houdt.

@free_electron thanks, Het betreft een video montage opstelling, waarbij het video bron materiaal
tussen meerdere werkstations en server/router via een Gigabit (LAN)netwerk wordt uitgewisseld.
Ik neem aan dat de paren bij gebruik van een router een op een worden doorverbonden?
ps: weet je een site met info? thanks

free_electron

Silicon Member

neem maar allemaal rechte kabels , vermijdt die koppelstukjes als de pest.

en zorg dat je een STRAFFE gigabit switch hebt. geen prul van 100 euro.
die zijn physical layer wel 1000base-t maar kunnen die pijp niet vol persen ...

ik heb goede ervaringen met SMC en Cisco-Linksys spul.
D-link was rommel. 2 connecties switchen naar 1 machine... nooit meer dan 300 meg kunnen doorpersen.
SMC 64 bit pci kaarten en een cisco switch ( 5 port switch , zo een metalen doos , kostte 399 dollar )
> 800 meg sustained.

Professioneel ElectronenTemmer - siliconvalleygarage.com - De voltooid verleden tijd van 'halfgeleider' is 'zand' ... US 8,032,693 / US 7,714,746 / US 7,355,303 / US 7,098,557 / US 6,762,632 / EP 1804159 - Real programmers write Hex into ROM

Op 17 maart 2006 18:55:17 schreef free_electron:
neem maar allemaal rechte kabels , vermijdt die koppelstukjes als de pest.

en zorg dat je een STRAFFE gigabit switch hebt. geen prul van 100 euro.
die zijn physical layer wel 1000base-t maar kunnen die pijp niet vol persen ...

ik heb goede ervaringen met SMC en Cisco-Linksys spul.
D-link was rommel. 2 connecties switchen naar 1 machine... nooit meer dan 300 meg kunnen doorpersen.
SMC 64 bit pci kaarten en een cisco switch ( 5 port switch , zo een metalen doos , kostte 399 dollar )
> 800 meg sustained.

Ok perfect, zulke info spaart Euro,s (Dollars) en geeft kwaliteit zonder ergernis. Top, Gr.

free_electron

Silicon Member

ik zweer bij cisco en linksys spul
ditto voor SMC . daar zit een dikke chip met koelplaat op van national semiconductor.

ik heb de kleintjes nog niet uitgeprobeerd ( realtek en dergelijke ) maar ik heb ergens een vermoeden dat ook die de pijp niet vol kunnen persen. da chipke wat daar op zit is ietskes te klein daarvoor.
1000 base -T is een serieus debiet en vraagt wat horsepower om dat full speed te kunnen persen.
die kleintjes kunnen fysiek wel persen maar ze kunnen dat niet lang volhouden. de buffertjes raken vol / leeg en het is meer pakketjes van 1000 byte aan 1000megabit met een interval van 3 pakketten niks. je effectief debiet per seconde valt naar 200 meg/s ( zie het als waitstates draaien )

de Intel Pro adapters zijn ook goed. ik heb veel Pro-100 en Pro-100 twin gebruikt ( de twin kaarten met twee ethernets erop ) alsook een paar Pro-1000

in ieder geval. de 100 euro gigabit switches die nu verpats worden houden dat niet. als je daar effectief 5 pc's aanhangt die allemaal onder elkaar beginnen te tateren ... poort 1 tegen poort 2 en 3, poort 2 tegen poort 1 en poort 4, poort 3 tegen poort 1 en 4 .... dat ding plooit gewoon.
je loopt tegen het intern debiet van die chip aan.
immers een 5 poort gigabit switch moet intern 5 gigabyte per seconde kunenn 'moven'... en aangezien dat full duplex is eigenlijk 10 gigabit per seconde.
zelfs DDR2 haalt dat niet ...

das ook waar het verschil zit tussen de 100 euro switchenen de 2000 euro switchen. ze doen ogenschijnlijk hetzelfde , maar de dure hebben de hardware en horsepower aan boord om al die pijpen vol te kunnen persen. de kleintjes moeten afhaken

dus in dat geval waar je 1 server hebt met 4 workstations ... die poort naar de server kant toe zal wel volgepropt worden ( elk workstation kan dus max 250 meg/sec krijgen als alle stations 'zuigen' ).
zorg dat uwe switch niet de bottleneck word , en zorg vooral ook dat de netwerkkaart in die server dat ook kan dragen ( zorg maar voor een 64 bit pci poort op dat moederbord. 32 bit pci komt niet verder dan 33 MHz ... dus 132megabyte /seconde = 1000 en iets megabit per seconde ... ALS JE DE BUS VOOR JOUW ALLEEN HEBT ! wat dus nooit het geval is , je disccontrollers zitten daar ook op .... dus dat haal je van zijn leven niet

. je ziet al dat dat een normaal moederbord van zijn leven niet gaat kunnen volgen. Kijk naar Intel of Tyan moederborden met een e77xx serie chipset op bijvoorbeeld.
Ik zou voor die server ( die moet door en door stabiel zijn ) een echt intel moederbord pakken , geen asus ,abit,EMC,MSI spul. Die zijn ook allemaal niet slecht maar voor het serieuze werk kan je je niet permiteren een bord te hebben met neigingen tot 'overclocking' ( die fabrikanten drijven de chips soms buiten of net op hun limiet, ze gebruiken spul wat .net. de benodigde spec haalt )
Intel heeft altijd ruime marge , Tyan ook

en blijf zeker weg van VIA chipsets. das om miserie vragen. hun PCI bus is nog geneeens in orde. ( ze implementeren een aantal bus-master technieken niet, om geen licentierechten te moeten betalen. en bus mastering en advanced DMA zijn net bij die grote datadebieten het allerbelangrijkste )

voor je diskarray : pak een straffe RAID controller kaart van Promise technologies of van .. damn de naam ontlipt me effe AMCC dacht ik of een adaptech

geen kaart gebaseerd op 1 ic !!! daar heb je dezelfde zever als met die cheapass gigabit netwerkkaarten. de moeten zoveel waitstates lopen omdat de buffers continue vol of leeg zijn.

ook daar kijk je tegen 300 euro + disccontrllers aan.
ik heb ooit de SX6000 gebruikt met 256 meg ram erop en een straffe i960 processor om de raid te doen.
zet daar snelle disken met grote cache op ( Seagates of Maxtor ), zet die in striping mode met kleine stripe size , geef die kaart een flink pak ram en laat ze los.
dat scheurt gelijk een ferrari.

Ik zou 1 stripeset maken als scratchdisk puur voor snelheid en dan 2 additionele stripesets die je elkaar laat mirroren voor de 'reliable data' dat tweede volume wordt trager door de mirroring maar het is wel redundant.

als aant in en uitstreamen bent gebruik je de scratchdisk die is razendsnel. daarnaa kopieer je die ingestreamde data naar het secure volume. (schrijven naar dat volume is trager dan naar het niet gemirrorde volume omdat de raid controller meer werk heeft de data te splitten en verifieren tegen de twee volumes, lezen gaat evensnel , zoniet nog sneller omdat data uit de mirrors kan gebufferd worden op voorhand. )

SCSI is nergens voor nodig.
6 dikke (250gig+) snelle SATA schijven met elk 16 meg buffer ( maxtor of seagate's ) die SATA2 ( command quing ) implementeren op een promise of 3ware raid - jep die zijnt niet amcc , 3ware

tzal vooruitgaan !

-edit- kzie net dat AMCC en 3ware samengesmolten zijn. dit is de disccontrollerkaart die je nodig hebt voor het echt serieuze werk
http://www.3ware.com/products/serial_ata2-9000.asp

http://www.xbitlabs.com/articles/storage/display/3ware-8500.html

http://www.tomshardware.com/2004/08/31/multi/

en voor we hier gekickt worden. het gaat hier wel om hardware ! namelijk de hardware die nodig is om dergelijke datadebieten te kunnen doen.
dit is geen topic voor tweakers.net :p

[Bericht gewijzigd door free_electron op vrijdag 17 maart 2006 21:07:52

Professioneel ElectronenTemmer - siliconvalleygarage.com - De voltooid verleden tijd van 'halfgeleider' is 'zand' ... US 8,032,693 / US 7,714,746 / US 7,355,303 / US 7,098,557 / US 6,762,632 / EP 1804159 - Real programmers write Hex into ROM

@free_electron, wat moet ik hier op zeggen? Nu je hebt mij een vrije zondag geleverd ;), mijn dank is (gigabit)groot..

free_electron

Silicon Member

tis nikske.
ik heb het indertijd ook geleerd met vallen en opstaan en hulp van iemand die dergelijke systemen in elkaar zette.
een bedrijfke in RTP. intrex computers.
Vooral raid was ene 'eye-opener'.. de meeste raid kaarten zijn software raid ( desondanks dat ze die verkopen als hardware raid. de meest highpoints vallen daar onderalsook de kleine promise systemen ) das in feite niks anders dan een extra diskcontroller met een speciale bios aan boord.
de code in die bios loopt op je processor ! dus daar is niks hardware processing aan. het is nog altijd je intel of amd die de berekeningen doet

de grote kaarten hebben een straffe processor aan boord ( meestal een i960 (Promise) , een PowerPc (AMCC/3ware) of een MIPS (Promise,Fulcrum en broadcomm) gebaseerd machien ) , een klets ram ( 128 meg tot soms boven de gigabye ) en hun eigen interface engines.

Dergelijke kaarten gedragen zich naar de pc toe als SCSI controller.
Dat was het leuke aan die Promise SX6000 kaart. je hebt daar geen drivers voor nodig. Je installeert windows en die detecteert een AD2940AU adaptec SCSI controller, installeert zijn standaard driver en de boel draait.
desondanks dat dat ene complexe raid kaart is met 6 harddisken aan weet het operating systeem van niks. het ziet ene raid kaart met daaraan een 'disk'. de raid controller vertaalt die 'disk' naar de fysieke harde schijven.

je hebt wle ene management programma waarmee je de array kan bekijken , en de array configuratie wordt ingesteld tijdens booten. vlak voordat hot operating systeem geladen wordt ( na de memory test ) krijg je een extra prompt gedurende 3 seconden. als je dan CTRL-R duwt krijg je ene soort bios config scherm te zien ( net zoals DEL je in de bios config van je moederbord brengt , zet dit je in de config van de RAID controller. daar kan je de boel dan sturen , volumes aan maken , stripes creeren , discs ejecten en swappen en nog vele meer. eenmaal klaar laat je de computer gewoon booten.

het perating systeem ( maakt niet uit of het windows of linux of whatevere is ) weet van NIKS. die processor op de kaart verzorgt alles. en dat zijn serieuze kloeffers hoor.
dei i960 loopt op 200MHz of zoeits maar heeft speciale instructies aan boord in hardware voor raid operaties. als je die emuleert op een pentium moet je boven de 2 gigahertz bollen eer je tegen die i960 kan opboksen in bandbreedte.

De broadcomm gebaseerde kaarten zijn ook dik in orde.

ik heb een jaar of , verdikke 5 weral , een server in elkaar gezet voor het labo. beestje draait nog altijd.
Intel moederbordje gebaseerop een 845G chipset , Pentium Iv 1.8 GHz erin, 1 Gig ram , Pro100 ethernet kaart van intel , een SMC gigabit lan kaart met national semiconductor chipset , ene promise SX6000 raid controller met 256 meg ram , 6 hotswap enclosures van promise ervoor en 6 Maxtor 80 Gbyte schijven. ( was zowat het grootste wat toen beschibaar was )
de boel was in ene antec kast ingebouwd ( zo een dubbelbrede op wieltjes met 8 ventilatoren ) met dubbele hotswappable voeding.

5 disken waren als RAID 5 gezet : 4 in stripe met de 5e als parity disc. de zesde was een hotswap. als er ene failure is gaat de raidcontroller volledig transparant de 'verloren' data terugrekenen vanuit de parity disk en de andere disken. dit dumpt ie naar de hot spare , brengt die on-line en stuurt de systadmin een email welke disk er defect is. een ledje op de disk trays geeft aan welke slecht is ( knippert rood ) je trekt die eruit en steekt ene nieuwe blanco schijf. dat is dan je hotspare geworden. dus bij volgend eprobleem wordt die ingezet.

Dit alles gebeurt volledig transpaarant voor de gebruikers. Systeem moet niet down , moet niet rebooten en de data blijft toegankelijk (weliswaar trager omdat de boel moet gereconstrueerd worden).

ik heb het 2x voorgehad. krijg emailtje van .. verdikke hoe heet dat programmatje ook al weer van promise. Cassandra geloof ik. tegen dat ik aan de server was, was de boel al reconstructed, disc eruit. op't gemaske naar de winkel achter ene ander. klik erin en klaar. niemand heeft ooit geweten dat er een probleem was met een disk.
der waren twee dergelijke machienes gebouwd ( identieke configuratie )

een derde normale computer had een DLT tapestreamer en DVd recorder aan boord voor de backups.

die derde conputer was via een 100 nbase-t switch verbonden met de 100mbit ethernet kaart van elke server. dit was dus een gesloten netwerkej wat niet toegankelijk was van buitenuit, speciaal voor backups. zo had je gene last van het usernetwerk

de gigabit poort an elke server ging naar ene gigabit switch van cisco die van daar uit de backbone voedde van de 100 base switchen ( 128 poorten , en we moestne in het labo zelf ook nog her en der kleine switchkes rondstrooien)
een machine was PDC de andere BDC

de derde ethernet port op de servers ( het was een pro100-duo kaart met 2 ethernet poorten op ) waren verbonden met elkaar. zonder switch , gewoon een gekruiste kabel.
Daardoor konden de servers onder elkaar load balancing doen.

dit systeem was ene pure fileserver.

installatie :eerst alle hardware in elkaar zetten.
Raid configuratie doen van ene minimaal systeem ( later kan je de raidpool instellen zoals je wilt , maar zorg dat er 1 virtuele disk naar buiten komt zodat het OS detecteerd dat daar 'iets' zit

windows 2000 advanced server erop ( loadbalancing en domain controller functies)

laat die installatie voltooien.
drivers installeren is -VERBOTEN- !. gans uw configuratie moet geinstalleerd kunnen wordne vanaf de microsoft cd zonder dat je extra cd;s of floppies nodig hebt. anders ben je verkeerd bezig. ( die config hierboven was zo. niks nodig , alles werdt direct herkend)

99% van de computercrashes worden veroorzaakt doro slechte drivers. de resterende 1% door users en slechte software.

dat bees theeft 2 jaar gebold in raleigh en 3 jaar in brussel ( t'bolt nog )
nooit moeten rebooten ( 1 keer om service pack 4 te installeren van windows, maar nooit omdat ie 'hing') , nooit gecrashed. 2x slechte schijf gehad zonder dat iemand het ooit gemerkt heeft , ding draaide 24/7

ik had nog ene aantal leukerds zitten.
elke machiene had ene dubbele redundante voeding ( eigen aan die antec kast )
1 van die voedingen ging naar het labonet wat op een grote 10kva UPs stond
de andere voeding ging naar ene klein UPs van merlin-gerin ( zo ene blauwe met van die zwarte hoeken, ze verkopen ze nog steeds . 400VA geloof ik). die kleine UP hing dan op zijn beurt weer an het labonet en de grote UPS.
dat klein ups dingetje heeft ene USB poort. windows server herkent die dingen automatisch en installeert de juiste module.

iedereen lachte met mij. alle jong twee UPssen na elkaar..

totdat de grote 'plooide'. de invertor vloog erdoor. mijn serverkes werde verwittgd van spanningsverlies door de 2 kleintjes via de usb poort. ik kreeg een emailtje. : je hebt 10 minuten... ik schakelde over naar het gewoon net . eerst de voeding die niet op de kleine ups staat overschakelen naar normale lichtnet , dan klein upske overschakelen naar geoon lichtnet. dat twee keer. niks aan de hand. toen de grote ups gerepareerd was schakelde ik op dezelfde manier terug.
servers zijn nooit platgegaan en niemand ( buiten de labogebruikers , maar die lagen zelf lam) heeft ooit gemerkt dat de server zijn voeding kwijt was.

worst case scenario : 1 van de twee servers ontploft en is dood , de ander verliest 1 voeding , 2 netwerkkaarten en 2 van zijn 6 harde schijven, de grote ups ontploft ook. de machine is nog steeds on-line en de users hebben nog steeds toegang tot hun data . niemand die iets merkt

van redundantie gesproken ..

de ganse zwik kostte iets van 10.000 dollar en 1 week om de boel proper in elkar te zetten en te configureren en bekabelen ( 19 inch rack en dergelijke )

Veritas backup software erop

userdisk toegankelijk : 320 gigabyte fully redundant.

we hadden prijs gevraagd bij HP . voor 10k dollar hadden we 1 server met 120 gbyte scsi schijven. redundantie : noppes.

Professioneel ElectronenTemmer - siliconvalleygarage.com - De voltooid verleden tijd van 'halfgeleider' is 'zand' ... US 8,032,693 / US 7,714,746 / US 7,355,303 / US 7,098,557 / US 6,762,632 / EP 1804159 - Real programmers write Hex into ROM

@free_electron: Lekker leesvoer voor de Zondag. Topper de Top..