Macht 10 Gbit im LAN Sinn?

Genau die von Mikrotik meine ich, die werden aber auch mit den SFP+ Modulen sehr warm und sollten gut belüftet aufgehängt werden. Da fällt bei mir die Montage im Rack schonmal weg.

Ich könnte jetzt mal mutmaßen: Die Chips für 10G gibt es ja schon ewig.... da hat sich niemand mehr damit beschäftigt die zu verkleinern, bzw. von der Leistungsaufnahme her zu optimieren. Kostet nur Geld und im Data-Center ist schon 100 und 200 G im Einsatz
 
im Data-Center ist schon 100 und 200 G im Einsatz
Also bei "ist schon" reden wir lieber von 400G ☺️ "Trotzdem rumbasteln kann sich lohnen!", was man dann wieder daran sieht, dass keiner hingeht und den alten GBase-T-Standard verbaut, sondern diese komischen Sonderlocken von wegen 2,5G und 5G (und nochmal 10G) auf den Markt gekommen sind (NBase-T). Fand ich irgendwie albern, aber scheint sich ja auch irgendwo "gelohnt" zu haben (Stromverbrauch, Produktionskosten, etc.). Was mich allerdings im Privatbereich etwas wundert: Warum SFP? 10G via RJ45 könnte man ebenso machen und das tolle: kann man einfach überall dran klemmen (auch wenn das Gegenstück noch gar kein 10G kann), womit man nicht auf beiseitige SFP-Ports angewiesen ist. Egal ob Server oder NAS, oftmals sind heute schon 10G via RJ45 direkt onboard, SFP ist da eher die Ausnahme (zumindestens nachdem was ich bisher so mitbekommen habe - mag mich da auch irren). Ich persönlich - sollte ich jemals auf den 10G-Gedanken privat kommen - würde definitiv zu RJ45 tendieren.
 
Ehrlich gesagt bekomme ich selbst die 10G-Leitung selbst mit meinen Enterprise-NAS nicht wirklich ausgelastet... 700-900 mbs, aber meist eher um 500, warum auch immer. Die RJ45 halte ich auch für die variante die am flexibelsten ist, da mit "fast" allem kompatibel.... Warum SFP+? Ja weil es einfach billiger ist, insbesondere bei den direkten patchkabeln
 
Die DAC-Kabel machen es den Leuten auch wesentlich einfacher. Enterprise-NAS heisst ja nicht automatisch, dass auch entsprechende Bandbreiten geliefert werden. MTU auf z.B. 9000 hochsetzen kann schon helfen (führt aber wieder zu einer stärkeren Fragmentierung der Pakete, sobald das NAS in Richtung Internet funkt (hier kann es helfen, verschiedene MTUs für verschiedene Interfaces zu setzen (intern vs extern)). Ansonsten blieben noch die Platten (HDD/SSD) übrig und vor allem natürlich auch die Größe der Pakete.
 
Irgendwo steckt bei mir der Wurm drin. Selbst mit meinem TVS-h1288x und einer WD Black NVMe schaffe ich das mit großen Dateien nicht.Die MTU habe ich bei allen Adapter auf 9000 gestellt.

Was interessant is, mein altes 1079 mit 8x 4TB Baracuda Compute bringt mehr Bandbreite. Die Platten sind eigentlich echte Spaßbremsen.
 
Wenn die SSD nur als Cache genutzt wird, wird sowieso alles was nicht im Cache liegt, noch von den HDDs angefordert, womit die Bremse auch wieder greift. Eine andere (auch öfter vorkommende) Möglichkeit wäre noch, dass die SSD zu warm wird und deswegen die Leistung drosselt. Dein NAS scheint zumindestens 3 grössere Lüfter drin zu haben, aber wo jetzt die SSD steckt und ob diese auch entsprechend vom Luftstrom profitiert... keine Ahnung. Auch nicht selten vorkommend wäre noch der Geschwindigkeitseinbruch beim schreiben grösserer Datenmengen. "Früher" gab es auch noch immer die Frage nach der Partitionsausrichtung (hat man da Mist gebaut, gab es auch unschöne Seiteneffekte, aber sowas sollte heutzutage definitiv kein Thema mehr sein). Also Möglichkeiten gibt es mehr als genug, bei den HDDs hält sich das glücklicherweise in Grenzen und die Dinger laufen meist relativ stabil was die Übertragungsraten angeht. Wäre vllt auch mal interessant, wenn die SSD anderweitig verbaut wird und man dort nochmal div. Performance-Tests fährt (sofern die Möglichkeit dazu besteht, ggf. externes USB3-Gehäuse) 🙃
 
Genau die von Mikrotik meine ich, die werden aber auch mit den SFP+ Modulen sehr warm und sollten gut belüftet aufgehängt werden. Da fällt bei mir die Montage im Rack schonmal weg.
Ich habe 2 Mikrotik Switche (einen 8fach SFP+, einen 24port plus 2fach SFP+, beide passiv gekühlt) voll belegt, in meinem Rack, oben unten unten eingequetscht von anderer Hardware, enger geht's nicht). Bisher keine Wärme Probleme. Das Rack hat aber im Boden und Decke jeweils 4 Noctua Lüfter.
 
Ich habe 2 Mikrotik Switche
Sorry, wenn ich hier mal ganz kurz reingrätsche... Wie sieht es mittlerweile mit VXLAN bei Router-/SwitchOS aus? Sollte ja irgendwann mal was kommen, aber irgendwie hab ich den Stand der Dinge auch aus den Augen verloren. Und ganz besonders die Frage (da Du auch einen 8er hast)... Gibt es das auch bei den kleineren Gerätschaften? Wäre grade für eine Teststellung interessant, aber irgendwie hab ich da nirgendwo wirklich rauslesen können, ob sowas nun bei 8-Port-Switchen möglich ist, oder nicht (vllt bin ich auch einfach nur blind, mag auch gut sein) ☺️
 
aber ich meinte V"X"LAN ("VLAN in VLAN")
soweit ich gelesen habe, wurde VxLAN im RouterOS v7 beta5 eingeführt.
Schätze dieses Feature wird es auf den Switches mit SwOS nicht geben.
Das kleinste Gerät, das VxLAN unterstützt, müsste demnach dieses hier sein: CRS305-1G-4S+IN https://mikrotik.com/product/crs305_1g_4s_in

Aber ich sehe gerade, dass auf dem Gerät anscheinend erst 6.x läuft...man müsste somit auf die 7.1 RC4 umsteigen.
Alle Versionen: https://mikrotik.com/download
 
Zuletzt bearbeitet:
8xRJ45 wären ganz gut und ich bräuchte es auch nicht als Router, sondern einfach nur als Switch. Firewall kann sowieso VXLAN. Das mit der beta hab ich auch gelesen, aber bei einem Bekannten (nutzt diese kleinen 5-Port-Router) war davon noch nichts zu sehen. Die v7 scheint auch noch garnicht draussen zu sein, also heisst es wohl erstmal noch etwas abwarten, wird aber vermutlich noch was dauern ( -> 6.49rc2 (Testing) -> 7.1rc4 (Development)) und wenn ich an sowas hier denke "MikroTik announced VxLAN support on 14.02.2020", frag ich mich doch, wieviel Jahre ich darauf noch warten soll... zunächst einmal wird ja wohl erstmal die 6.49rc2 released (wenn denn mal irgendwann fertig)... 🙄

Naja egal, hab ein bissken rumweinen dürfen, danke für die Bestätigung, dass noch immer nix und für Deine Anteilnahme... 😄 Wenn es nicht für die Switche bzw. SwitchOS kommt, hat man wohl einen ziemlichen Bock geschossen (oder recht viel dafür kassiert, dass man es sein lässt). Lassen wir das Thema jetzt mal, es geht hier im Thread schliesslich um 10G im heimischen Netzwerk, trotzdem nochmals danke! 😇
 
Ich habe 2 Mikrotik Switche (einen 8fach SFP+, einen 24port plus 2fach SFP+, beide passiv gekühlt) voll belegt, in meinem Rack, oben unten unten eingequetscht von anderer Hardware, enger geht's nicht). Bisher keine Wärme Probleme. Das Rack hat aber im Boden und Decke jeweils 4 Noctua Lüfter.

*hihi* Noctua, aha, na dann ist ja schon nicht mehr passiv gekühlt. Ich gehe nämlich davon aus, dass du dein Rack hinsichtlich Luftstrom optimiert hast. Ich habe einen XS508M von Netgear... der hat einen Lüfter... wird trotzdem sehr warm das Teil. Aktuell habe ich in meinem Rack eine Thermostatsteuerung für die 220V Lüfter.... Ich denke jetzt aber darüber nach noch einen 120er Noctua nachzurüsten der dauerhaft für Frischluft sorgt.
 
Zuletzt bearbeitet:
Ob 10G Sinn macht, dass muss wohl jeder für sich selbst beurteilen. Zwischen meinen Core-Switchen verwende ich sogar 2x 10G auf Glasfaser und zu den anderen Switchen 1x 10G ebenfalls auf Glasfaser. Über Kupfer habe ich nur noch die kleinen Neben-Switche angebunden, weil ich es z.B. nicht über das Herz bringe einen SONOS-Lautsprecher, der nicht einmal mehr als 100M schafft, in einen Multigigabit-Port zu stecken. ;)

Ich habe sowohl Server, PC alsauch NAS die per 10G (Kupfer) angebunden sind.

Ich finde es schon praktisch, wenn ich mit gemessenen 1.200 MB/sec (CrystalDiskMark) auf mein NAS zugreife kann.
 
Ich mag es halt zügig auf mein NAS zuzugreifen... aber das übliche RAID-Phänomen.
Lesen geht besser als Schreiben. ;)

QNAPrw.jpg

P.S.: Ich hatte auch schon mit dem Gedanken gespielt über 10G zu gehen, aber das schafft mein PC nicht.
Ich habe, so lange ich nicht auf meine Grafik-Karte verzichten will nur 4 PCIe-Lanes zum Slot der Netzwerk-Karte.
Für mehr als 10G also z.B. 25G oder 40G Netzwerkkarten braucht's 8 PCIe-Lanes.
 
Ich hab den Faden jetzt nur überflogen. Wer jetzt echt sagt, dass er 10GB zu Hause braucht, muss echt wichtig oder ein Freak sein – sorry. Wenn ich 2,5GB kriegen könnte (dazu müsste ich aber einiges an Hardware austauschen, was ich nicht vorhabe) wäre es ein nettes Feature. Ansonsten läuft alles unter Tags auch mit einem Gbit Bestens (und wie lange die Server in der Nacht mit ihren Backups herumspielen ist mir wirklich egal).
 
Ich hab den Faden jetzt nur überflogen. Wer jetzt echt sagt, dass er 10GB zu Hause braucht, muss echt wichtig oder ein Freak sein – sorry. Wenn ich 2,5GB kriegen könnte (dazu müsste ich aber einiges an Hardware austauschen, was ich nicht vorhabe) wäre es ein nettes Feature. Ansonsten läuft alles unter Tags auch mit einem Gbit Bestens (und wie lange die Server in der Nacht mit ihren Backups herumspielen ist mir wirklich egal).

Nur wird irgendwann die Nacht zu kurz, wenn ich mit 1 GBit/sec arbeite. Ich musste schon von Vollsicherungen abstand nehmen, weil das nicht hinhaut. Also habe ich vor längerer Zeit schon auf inkrementelle Backups umgestellt. Allein mein inkrementelles Backup-Volumen in die Cloud ist monatlich ca. 15 Terabyte. Eine Vollsicherung wäre einfach nicht zu machen...

Außerdem ist es auch mein Hobby. Sicher könnte man runterskalieren... Allein meine IT verbraucht ja auch schon über 3.000 kW/h pro Jahr. Ist halt ein 7/24 Betrieb eines größeren Netzwerkes 9 Switche, Server, NAS, Firewall, usw. Dafür habe ich niedrige Heizkosten. :D

Ich habe mal eine geschwärzte Skizze meines Netzwerks beigefügt, das ist die "Infrastruktur" mit Knoten (Servern, NAS, Bridges, Switches).
Mit den Clients, die ich hier nicht dokumentiert habe komme ich auf 93 aktive TCP/IP-Hosts dazu kommen noch mal ca. 50 Zigbee-Geräte.
WLAN wird von mehreren APs bereitgestellt, insgesamt sind es 3 ESSIDs und 12 BSSIDs.

Das zweite Bild ist eine Schematik des Core-Netzes (ohne Client-Switche). Das Core-Netz ist Multiple Spanning Tree und die Client-Switche docken mit Rapid Spanning Tree an.
Die kleinen Verbotssignale zeigen die im Normalzustand internen "blocking ports" des Spanning Trees,

net.jpg net2.jpg

Und natürlich bin ich ein einfacher Heimanwender... ;)
 
Zuletzt bearbeitet:

Zurzeit aktive Besucher

Letzte Anleitungen

Statistik des Forums

Themen
5.912
Beiträge
57.732
Mitglieder
5.870
Neuestes Mitglied
kicknick
Zurück
Oben