Fünf Haupttechnologien von LAN-Switches

Fünf Haupttechnologien von LAN-Switches

Da LAN-Switches virtuelle Leitungsvermittlung nutzen, gewährleisten sie technisch eine konfliktfreie Bandbreitennutzung zwischen allen Ein- und Ausgängen. Dies ermöglicht eine schnelle Datenübertragung zwischen den Ports ohne Übertragungsengpässe. Dadurch wird der Datendurchsatz der Netzwerkpunkte deutlich erhöht und das gesamte Netzwerk optimiert. Dieser Artikel erläutert die fünf wichtigsten Technologien.

1. Programmierbarer ASIC (anwendungsspezifischer integrierter Schaltkreis)

Dies ist ein speziell für die Optimierung von Layer-2-Switching entwickelter integrierter Schaltkreis (ASIC). Er bildet die Kernintegrationstechnologie moderner Netzwerklösungen. Mehrere Funktionen lassen sich auf einem einzigen Chip integrieren, was Vorteile wie einfaches Design, hohe Zuverlässigkeit, geringen Stromverbrauch, höhere Leistung und niedrigere Kosten bietet. Programmierbare ASICs, die in LAN-Switches weit verbreitet sind, können von Herstellern – oder auch von Anwendern – an die jeweiligen Anwendungsanforderungen angepasst werden. Sie haben sich zu einer der Schlüsseltechnologien für LAN-Switch-Anwendungen entwickelt.

2. Verteilte Pipeline

Durch verteiltes Pipelining können mehrere verteilte Weiterleitungsmodule ihre jeweiligen Pakete schnell und unabhängig voneinander weiterleiten. In einer einzelnen Pipeline können mehrere ASIC-Chips mehrere Frames gleichzeitig verarbeiten. Diese Parallelverarbeitung und das Pipelining heben die Weiterleitungsleistung auf ein neues Niveau und ermöglichen Leitungsgeschwindigkeit für Unicast-, Broadcast- und Multicast-Verkehr an allen Ports. Daher ist verteiltes Pipelining ein wichtiger Faktor zur Verbesserung der LAN-Switching-Geschwindigkeit.

3. Dynamisch skalierbarer Speicher

Bei modernen LAN-Switching-Produkten basieren hohe Leistung und Funktionalität häufig auf einem intelligenten Speichersystem. Dynamisch skalierbare Speichertechnologie ermöglicht es einem Switch, die Speicherkapazität je nach Datenverkehrsbedarf flexibel zu erweitern. In Layer-3-Switches ist ein Teil des Speichers direkt der Weiterleitungs-Engine zugeordnet, wodurch zusätzliche Schnittstellenmodule integriert werden können. Mit zunehmender Anzahl an Weiterleitungs-Engines wächst auch der zugehörige Speicher. Durch pipelinebasierte ASIC-Verarbeitung lassen sich Puffer dynamisch aufbauen, um die Speicherauslastung zu optimieren und Paketverluste bei hohem Datenaufkommen zu verhindern.

4. Erweiterte Warteschlangenmechanismen

Selbst leistungsstarke Netzwerkgeräte können unter Engpässen in den angeschlossenen Netzwerksegmenten leiden. Traditionell wird der Datenverkehr eines Ports in einer einzigen Ausgabewarteschlange gespeichert und strikt nach dem FIFO-Prinzip (First In, First Out) verarbeitet, unabhängig von der Priorität. Ist die Warteschlange voll, werden überschüssige Pakete verworfen; mit zunehmender Länge der Warteschlange steigt die Verzögerung. Dieser herkömmliche Warteschlangenmechanismus erschwert Echtzeit- und Multimedia-Anwendungen.
Viele Anbieter haben daher fortschrittliche Warteschlangentechnologien entwickelt, um differenzierte Dienste auf Ethernet-Segmenten zu unterstützen und gleichzeitig Verzögerung und Jitter zu kontrollieren. Diese Technologien können mehrere Warteschlangenebenen pro Port umfassen und ermöglichen so eine bessere Differenzierung der Datenverkehrsaufkommen. Multimedia- und Echtzeit-Datenpakete werden in Warteschlangen mit hoher Priorität platziert. Durch gewichtetes, faires Warteschlangenmanagement werden diese Warteschlangen häufiger abgearbeitet – ohne dabei Datenverkehr mit niedrigerer Priorität vollständig zu ignorieren. Anwender herkömmlicher Anwendungen bemerken keine Änderungen in Antwortzeit oder Durchsatz, während Anwender zeitkritischer Anwendungen zeitnahe Antworten erhalten.

5. Automatische Verkehrsklassifizierung

Bei der Netzwerkübertragung sind manche Datenströme wichtiger als andere. Layer-3-LAN-Switches setzen daher zunehmend auf automatische Verkehrsklassifizierung, um zwischen verschiedenen Verkehrstypen und -prioritäten zu unterscheiden. Die Praxis zeigt, dass Switches mit automatischer Klassifizierung die Paketverarbeitung so steuern können, dass benutzerdefinierte Datenströme priorisiert werden. Dies ermöglicht geringe Latenz und eine Weiterleitung mit hoher Priorität. Dadurch wird nicht nur eine effektive Steuerung und Verwaltung spezieller Datenströme gewährleistet, sondern auch Netzwerküberlastungen vorgebeugt.


Veröffentlichungsdatum: 20. November 2025

  • Vorherige:
  • Nächste: