Zpedia 

/ Was ist Multiprotocol Label Switching (MPLS)?

Was ist Multiprotocol Label Switching (MPLS)?

Multiprotocol Label Switching (MPLS) ist eine Methode des Wide Area Networking (WAN), bei der der Traffic mithilfe von Labels (statt Netzwerkadressen) geroutet wird, um den kürzestmöglichen Pfad für die Paketweiterleitung zu bestimmen. Anstatt Datenpakete von Router zu Router zu senden, werden sie mit einem Label versehen und gesteuert. Diese Methode zielt darauf ab, Ausfallzeiten zu minimieren, die Dienstqualität (QoS) zu verbessern und einen möglichst zügigen Datenverkehr sicherzustellen.
Umstellung auf Cloud und SD-WAN

Wie funktioniert Routing in MPLS?

Auf der Oberflächenebene nutzen MPLS-Funktionen Router als Switches, indem sie dem Traffic basierend auf Labels einen vorbestimmten Pfad zuweisen. In diesem Sinne sind MPLS-Verbindungen viel stärker und zuverlässiger als herkömmliche paket- oder leitungsvermittelte Verbindungen.

MPLS ermöglicht die Weiterleitung von IP-Paketen auf der Switching-Ebene der OSI-Schicht 2 (Sicherung), ohne dass sie an die Schicht 3 (Vermittlung) weitergeleitet werden. Beim IP-Routing (Internet Protocol) wird der Traffic über einen langen Pfad mit mehreren Stopps gesendet. Bei MPLS hingegen werden Datenpakete mit einem MPLS-Label versehen und über einen Label-Switched Path (LSP) gesendet, der zwischen den Headern für die Sicherungs- und Vermittlungsschicht eingefügt wird. Bei dieser Methode müssen Router statt der vollständigen IP-Adresse des Traffics nur die MPLS-Labels interpretieren.

Es gibt zwei Arten von MPLS-Routern: Label Edge Router (LER), die eingehende Daten mit Labels versehen, und Label Switch Router (LSR), die diese Daten anschließend als ausgehenden Traffic weitersenden. Darüber hinaus gibt es zwischengeschaltete LSRs, die bei Bedarf den Verbindungspfad korrigieren, über den das Paket gesendet wird.

Diese Router kombinieren Pakete mit ähnlichen Eigenschaften und platzieren sie in derselben Forwarding Equivalence Class (FEC), sodass sie mit identischen Labels versehen und über denselben LSP gesendet werden können. Im Unternehmenskontext können dadurch die unterschiedlichen Traffic-Typen auf einer Netzwerkebene erheblich reduziert werden, was zur Verringerung der Latenz beiträgt.

Wofür wird MPLS verwendet?

MPLS funktioniert durch die Erstellung von Point-to-Point-Pfaden, die als leitungsvermittelte Verbindungen fungieren, aber IP-Pakete der Schicht 3 ausliefern. Entsprechend eignet es sich am besten für Unternehmen, die über entfernte Zweigstellen an vielen weit voneinander entfernten Standorten verfügen, die Zugriff auf das Rechenzentrum benötigen. Das galt zumindest, als die Mehrzahl der Mitarbeiter noch im Büro saß.

Unternehmen führten MPLS häufig innerhalb eines virtuellen privaten Netzwerks (VPN) aus, entweder um den bereits erwähnten Point-to-Point-Pfad zu erstellen oder für einen privaten LAN-Service. MPLS bot vielfältige Anwendungsmöglichkeiten, da es unabhängig von den verwendeten zugrunde liegenden Netzwerkprotokollen (Ethernet, SDH, ATM usw.) eingesetzt werden konnte. Die Entscheidung über den jeweiligen Weiterleitungspfad wurde allein auf der Basis übereinstimmender Labels getroffen.

Aus welchen Komponenten besteht MPLS?

MPLS verfügt über vier einzigartige Mechanismen, die die Qualität und Stabilität der vermittelten Verbindungen verbessern:

  1. Das Label: Das Label, das jeder Verbindung zugeordnet wird, ist sozusagen der Kern des MPLS-Modells.
  2. Feld „Traffic Class“: Diese Komponente priorisiert Pakete nach QoS.
  3. Bottom-of-Stack Flag: Markierung, die einem Label Switch Router mitteilt, dass dieser Verbindung keine weiteren Labels hinzugefügt werden müssen.
  4. Time-to-Live: Gibt an, wie viele Hops Daten durchlaufen können, bevor sie verworfen werden.

Diese vier Bestandteile sorgen dafür, dass MPLS einfacher zu verwalten ist als andere, weniger starre Methoden der Traffic-Weiterleitung. Das ist ungefähr vergleichbar mit der Verfolgung einer Lieferung anhand einer Sendungsnummer anstatt das Nummernschild oder die Fahrgestellnummer des Lieferwagens zu erraten.

Vorteile von MPLS

Allgemein gilt MPLS als etwas veralteter Ansatz, der gegenüber dem herkömmlichen IP-Routing Vorteile bietet, jedoch weniger Agilität und Flexibilität gewährleistet als etwa SD-WAN. Die Vorteile von MPLS auch unter heutigen Vorzeichen sollten jedoch nicht unterschätzt werden.

Es lässt sich einfacher skalieren als Package- oder Circuit-Switching, gewährleistet ein hohes Maß an Leistung, reduziert die Überlastung des Netzwerktraffics und sorgt für bessere Anwendererfahrungen für Enduser. Außerdem entfällt die Notwendigkeit, an jedem Stopp Lookups in einer Routing-Tabelle durchzuführen. Wie bereits erwähnt handelt es sich um ein Routing-Protokoll, das unabhängig von dem von Ihrem Unternehmen verwendeten Netzwerkprotokoll eingesetzt werden kann und damit die Flexibilität erhöht.

Hinweise zur Nutzung von MPLS-Netzwerken beim Wechsel in die Cloud

Damit MPLS cloudfähig wird, kann es durch eine Reihe von Technologien ergänzt werden, insbesondere:

  • Virtuelle Routing-Services: Bei Verwendung eines Cloud-Routers auf einem MPLS-Gerät können Sie ein softwaredefiniertes Netzwerk (SDN) nutzen, um MPLS-Cloud-Verbindungen herzustellen.
  • Entlastung des Netzwerks: Eine direkte Internetverbindung ermöglicht Ihnen die Entlastung des Netzwerks, sodass das MPLS nur den Traffic zum Büro überträgt und so Kapazitäten freigibt.
  • SD-WAN: SD-WAN erweitert MPLS um kostengünstige Breitband-Internetverbindungen oder leitet Traffic direkt übers Internet, um Anwendungs- und Bandbreitenanforderungen zu berücksichtigen.

Richtig eingesetzt eignet MPLS sich durchaus als cloudfähige Technologie. Mit der zunehmenden Verbreitung der Cloud wird MPLS jedoch aufgrund seiner veralteten Architektur allmählich auslaufen. Das wird im nächsten Abschnitt ausführlicher erläutert.

Nachteile von MPLS

MPLS bringt eine Reihe von Problemen mit sich, die sich bei der Umstellung auf Remote-Arbeit und die Cloud noch verstärken:

Größere Komplexität

Der Einsatz und die Verwaltung von Routern an jedem Standort ist zeitaufwendig, führt zu Sicherheitskompromissen und schränkt Ihre Fähigkeit ein, auf sich ändernde Bedingungen zu reagieren.

Schlechte Nutzererfahrung

Das Backhauling von Traffic zu zentralen Sicherheits-Appliances, die nicht für die Bewältigung der Anforderungen von Cloud-Applikationen konzipiert sind, führt zu unproduktiven und unzufriedenen Usern.

Mangelnde Sicherheit

Sobald User Ihr Netzwerk bzw. VPN verlassen, werden Ihre Sicherheitsrichtlinien unwirksam; damit steigt das Risiko. Um hier Abhilfe zu schaffen, benötigen Sie konsistenten Schutz für sämtliche Verbindungen.

Darüber hinaus stellt MPLS keine Verschlüsselung bereit, was bei der Verlagerung des Betriebs in die Cloud ein großes Problem darstellt. Angesichts der Tatsache, dass Cloud-Service den Bandbreitenbedarf der Unternehmen in die Höhe treiben und es viele Vorschriften zum Schutz vertraulicher Daten gibt – insbesondere beim Senden in die und aus der Cloud –, ist der Einsatz von MPLS heute immer schwieriger zu rechtfertigen.

MPLS und SD-WAN im Vergleich

MPLS bietet eindeutige Vorteile gegenüber weniger ausgereiften Weiterleitungsmethoden, die früher eingesetzt wurden. SD-WAN verwendet jedoch softwaredefinierte Richtlinien, um den besten Routingpfad zum Internet, zu Cloud-Anwendungen und zum Rechenzentrum zu bestimmen. Daher eignet es sich besser für Echtzeitanwendungen wie UCaaS, VoIP, Business Intelligence usw.

SD-WAN bietet aufgrund seiner softwaredefinierten Konstruktion eine einfachere Bereitstellung und eine größere Bandbreite an Konfigurationen. Aus diesem Grund bietet SD-WAN im Vergleich zu MPLS eine deutlich verbesserte Sicherheit: Über die Cloud erstellte und durchgesetzte softwaredefinierte Richtlinien helfen Ihnen, sämtliche Netzwerkverbindungen zuverlässig abzusichern.

SD-WAN bietet gegenüber MPLS eine Reihe von Vorteilen. Um jedoch einen vollständigen, aus der Cloud bereitgestellten Netzwerk- und Sicherheits-Stack zu nutzen, der überall hervorragende Anwendererfahrungen und hohe Sicherheit gewährleistet, benötigen Sie Secure Access Service Edge (SASE).

Ein SASE-Ansatz

Um die neuartigen Herausforderungen der Cloud zu bewältigen, setzen viele Unternehmen auf eine cloudbasierte Infrastruktur für Netzwerke und Sicherheit, die als SASE bezeichnet wird. Dieses Framework bietet sicheren Zugriff auf alle Anwendungen sowie vollständige Transparenz und Überprüfung des Traffics auf sämtlichen Verbindungspfaden.

Vorteile von SASE:

Reduzierte IT-Kosten und -Komplexität

Statt wie früher den Netzwerkperimeter abzusichern, gewährleistet SASE standortunabhängig den Schutz von Usern und anderen Entitäten. SASE basiert auf dem Konzept des Edgecomputing, also der Verarbeitung von Daten in möglichst großer Nähe zu den Menschen und Systemen, die sie benötigen. Entsprechend werden Sicherheits- und Zugriffslösungen nahe am User bereitgestellt. Verbindungen zu Anwendungen und Services werden anhand der unternehmensspezifischen Sicherheitsrichtlinien dynamisch zugelassen oder abgelehnt.

Schnelle, nahtlose User Experience

Gemäß diesem Modell werden Sicherheitsrichtlinien möglichst nahe an der Entität durchgesetzt, die abgesichert werden soll. Statt den User-Traffic zur Sicherheitslösung weiterzuleiten, wird die Sicherheitslösung also in User-Nähe bereitgestellt. SASE ist auf den Schutz von Cloud-Umgebungen ausgelegt. Unternehmen profitieren insbesondere von der intelligenten Verwaltung von Verbindungen an Internetknoten in Echtzeit sowie der Optimierung latenzarmer Direktverbindungen zu cloudbasierten Anwendungen und Services.

Vermindertes Risiko

Als Cloud-native Lösung ist SASE eigens darauf ausgelegt, Unternehmen bei der Bewältigung der spezifischen Risiken zu unterstützen, die sich aus der neuen Realität geografisch verteilter User und dezentral bereitgestellter Anwendungen ergeben. Im SASE-Framework spielt Zero Trust Network Access (ZTNA) eine Schlüsselrolle. Die Technologie stellt sicheren Anwendungszugriff für mobile User, Mitarbeiter im Außendienst bzw. Homeoffice und in Zweigstellen bereit. Gleichzeitig sorgt ZTNA dafür, dass die Angriffsfläche und damit auch das Risiko der lateralen Ausbreitung von Bedrohungen im Netzwerk minimiert wird.

Zscaler SD-WAN und SASE

Zscaler arbeitet mit Partnern aus mehreren Bereichen zusammen, um Ihr Unternehmen bei der schnellen Umstellung auf und Implementierung von SD-WAN zu unterstützen. Diese Partner vertrauen unserer cloudbasierten Netzwerkarchitektur, da sie gemäß der SASE-Vision von Gartner aufgebaut ist, die sich als optimales Framework für cloudbasierte Vernetzung und Sicherheit über SD-WAN erwiesen hat.

Die Zscaler Zero Trust Exchange™ ist eine Cloud-native SASE-Plattform, die von Anfang an auf Performance und Skalierbarkeit ausgelegt wurde. Dank der globalen Präsenz der Plattform befinden sich User immer in unmittelbarer Nähe ihrer Anwendungen. Durch Peering mit Hunderten von Partnern in großen Internetknoten weltweit werden Routing, Performance und Zuverlässigkeit optimal bereitgestellt.

Empfohlene Ressourcen

Zscaler + Netzwerk- und UCaaS-Partner
Webseite besuchen
Sicherer Remote-Zugriff
Nutzen Sie das volle Potenzial von SD-WAN
Webseite besuchen
Zscaler + Cisco SD-WAN
Weitere Informationen

01 / 02

Häufig gestellte Fragen

Wenn ein Datenpaket ein falsches Label erhält, fängt ein Label-Switching-Router die Verbindung ab und sendet sie über den richtigen Datenpfad. Dies basiert hauptsächlich auf der OSI-Schicht, auf der sich eine Verbindung befinden sollte (normalerweise 2 oder 3).

Es gibt zwei typische Methoden, Datenpakete an ihr Ziel zu senden:

Packet-Switching (Paketvermittlung) und Circuit-Switching (Leitungsvermittlung). Die Paketvermittlung erfolgt auf Grundlage einer Ziel-IP-Adresse und Routing-Protokollen. Dazu sind eine große Anzahl von Routern und ein nicht festgelegter Datenpfad erforderlich, was die Übertragung verlangsamt. Die Leitungsvermittlung wird typischerweise für Telefonverbindungen verwendet und sendet Verbindungen über einen festgelegten Datenpfad. Da die Einrichtung dieses Pfads jedoch viel Zeit in Anspruch nimmt, ist er ineffizient und kostspielig.

MPLS-Verbindungen sind privat, da sie in einem geschlossenen Tunnel hergestellt werden und die gesendeten Daten nicht im Internet exponieren. Sie stellen Verbindungen zwischen Zweigstellen und Rechenzentren her und werden häufig als Basisschichten für virtuelle lokale Netzwerke (VLANs) und VPNs verwendet – beides eigenständige private Verbindungen.