Immer größere Produktionen (wie z. B. der European Song Contest) und immer komplexere Studios (wie z. B. DR Byen) sind ohne Netzwerktechnik nicht mehr zu bewältigen. Die Thematik von Netzwerken ist ungewohnt und scheinbar sehr komplex und so manch einer denkt sehnsüchtig an das so einfach zu überschauende DMX-512-Protokoll zurück. Jedoch sollte der engagierte Beleuchter sich dennoch nicht der neuen Technologie verschließen, denn sie wird sich ihren Weg selbst in die kleinen Produktionen bahnen – und dann wird der Umgang mit dieser Technik von einer Fachkraft auch erwartet.
Den physikalischen Aufbau eines Netzwerks kann man als Topologie bezeichnen. Damit wird die Struktur des Netzwerks festgelegt und wird so auch oft als Netzwerkarchitektur bezeichnet. Jede der drei Grund-Topologien beinhaltet Vor- und Nachteile. Es ist allerdings möglich, die verschiedenen Topologien auch zu koppeln, so dass sich Mischformen entwickeln können.
Stern-Topologie
Uns begegnet das Prinzip der Stern-Topologie erstmals bei der mobilen einfachen Phasenwende-Kettenzugsteuerung. Dort wird jeder einzelne Kettenzug mit der Zuleitung mit der Steuereinrichtung verbunden. In der PC-Welt werden einfache Netzwerke ebenfalls oft sternförmig aufgebaut, indem die Rechner alle miteinander über einen Hub oder Switch miteinander verbunden werden. In der Lichttechnik findet sich die sternförmige Verdrahtung ebenfalls wieder, wenn man Nodes, Dimmerprozessoren und die ersten Ethernet-fähigen Moving Lights mit der Lichtstellanlage und evtl. Medienservern verbindet. In der Regel setzt die Lichttechnik dabei auf das aus der Computertechnik weit verbreitete Ethernet – mehr dazu jedoch später.
Charakteristisch für die Stern-Topologie ist, dass alle Geräte sternförmig an einen Netzwerkknoten angeschlossen sind. Da jedes Gerät über den Hub z. B. direkt mit einem zentralen Server bzw. „Master“ verbunden ist, laufen auch alle Informationen über diesen zentralen Server. Die Leistungsfähigkeit einer solchen Topologie hängt damit hauptsächlich von der Anzahl der angeschlossenen Stationen und deren Ausstattung sowie von der Leistungsfähigkeit des Servers ab. Die Vorteile der Stern-Topologie sind die leichte Erweiterung durch direkten Anschluss an den Hub bzw. Switch und die hohe Übertragungsgeschwindigkeit zwischen Server und Endgerät. Auch lassen sich durch die zentral zusammengeführte Verkabelung und den zentralen Steuerrechner (Server) gute Sicherungs- und Kontrollmaßnahmen durchführen. Besondere Maßnahmen sind dagegen für den Fall einer Havarie des Servers oder der zentralen Verteilungsstelle (Hub, Switch) vorzusehen, da mit ihrem Ausfall das gesamte System steht.
Weiterhin ist die Verkabelung von jedem Gerät zum Knotenpunkt sehr aufwendig, insbesondere, wenn Hub oder Switch nicht zentral platziert sind. Bestehende Leitungen können bei Erweiterung des Systems mit weiteren Endgeräten nicht genutzt werden. Betrachtet man sich ein übliches Rigg mit entsprechender Anzahl von Moving Lights, wobei heute bereits einige Typen als ACN-Ready gelten und mit einem Ethernet-Anschluss ausgerüstet sind, müsste man mindestens von jedem Moving Light eine Leitung zu einem Hub oder Switch legen – ein ungeheurer Verkabelungsaufwand. Dabei ist die praktikablere Lösung, das einfache Durchschleifen von einem Gerät zum anderen mit der Bus-Topologie, schon lange Standard und wird sie für diese Anwendung auch immer bleiben.
Eine ringförmige Anwendung ist in der Veranstaltungsbranche nicht einfach wiederzufinden. Zwar werden z. B. Rainbowfarbwechsler von einem zum nächsten Farbwechsler weiterverbunden bis sie zum Ende hin am Ausgangspunkt der PSU wieder zurückgeführt werden, jedoch ist dieser Ring keine echte Ringstruktur, da die DMX-Signale (Bus-Struktur) von der Zentrale hier nur weitergeschleift werden. Bei einer echten Ringstruktur dagegen werden die Daten in einer Richtung vom Vorgänger zu einem Nachfolger übermittelt. Dabei prüft jeder Teilnehmer, ob der Inhalt für ihn bestimmt ist. Ist die Information für den Teilnehmer bestimmt, wird diese bearbeitet, ansonsten erfolgt die einfache Weitergabe des Datenpäckchens. Damit lassen sich auch echtzeitfähige Systeme aufbauen wie z. B. der Interbus, der für die Industrieautomation entwickelt wurde. In der Veranstaltungstechnik kann man den Interbus z. B. bei den Varioliften von ChainMaster finden.
Der Vorteil der Ring-Topologie ist das Fehlen einer zentralen Vermittlungsstelle, die bei der Stern-Topologie nötig ist. Damit sind diese Systeme sehr leicht zu erweitern. Durch das einfache Weiterschleifen von einem Gerät zum nächsten ist der Kabelaufwand sehr gering und daher preiswert. Ein Fehler im Ring ist auch sehr schnell zu lokalisieren. Dieser Ringaufbau mit dem systematischen Weitergeben der Information von einem zum nächsten Gerät entlang des Kreises, ruft auch den Begriff Token-Ring auf, was das Zugriffsverfahren zur Steuerung des Geräts bezeichnet.
Da jedes Gerät im Token-Ring durch die Weitergabefunktion eine aktive Rolle spielt, sind entsprechende Sicherheitsvorkehrungen zu treffen, da ansonsten beim Ausfall eines Geräts das gesamte System zum Erliegen kommt, was ein erhöhtes Ausfallrisiko der Gesamtanlage darstellt. Auch die Übertragungsdauer ist bei sehr vielen Geräten sehr lang, da die Informationen immer nur in einer Richtung von einem zum nächsten Gerät erfolgt. Dagegen kann bei einer Ringstruktur eine Adressierung der Geräte automatisch erfolgen, da ein Gerät nach dem nächsten einfach durchzuzählen ist. In der Praxis wird die Ringstruktur auch sternförmig verkabelt. Dabei wird die Leitung zum nachfolgenden Gerät zu einem zentralen Punkt zurückgeführt, um dann von dort die Verbindung zum Nachfolger zu schaffen. Dies hat den Vorteil, dass man von dem zentralen Sammelpunkt aus bei Bedarf, sprich Störung, das System lahmlegende Gerät einfach überbrücken kann.
Bei der Bus-Topologie sind alle Geräte an einem Kabel angeschlossen. Diesen Kabelstrang, von dem die Teilnehmer sozusagen abgezweigt werden, nennt man Bus. Der Bus kann von allen Teilnehmern genutzt werden, wobei jedes Gerät mit jedem kommunizieren kann. Ein zentraler Server zur Steuerung ist nicht notwendig.
Diese Gleichberechtigung der Rechner im Netzwerk nennt man auch Peer-to-Peer-Networking, also gleichrangiges Arbeiten im Netz. Im Gegensatz zur Ring-Topologie können nun die Informationen in jede Richtung laufen und das Zielgerät auf kürzestem Weg erreichen. Jedoch wird hierbei auch deutlich, dass es zu einer Kollision führt, falls ein weiteres Gerät ebenfalls auf der Leitung senden will. Das bedeutet: Wenn zwei Geräte gleichzeitig senden, überlagern sich die Signale und werden unbrauchbar. Je mehr Geräte vorhanden sind und je höher das Übertragungsaufkommen ist, desto mehr wird der Informationsfluss in einer Bus-Topologie verlangsamt. Denn bei jeder Kollision muss die Kommunikation abgebrochen werden und die Geräte wiederholen nach einem bestimmten Schema den Kommunikationsaufbau. So entstehen bei höherer Netzauslastung längere Wartezeiten.
Folglich eignet sich die Bus-Topologie vor allem für Netzwerke mit wenig Teilnehmern. Dabei ist die preiswerte Vernetzung der Teilnehmer vorteilhaft, wie auch die einfache Erweiterung des Netzes, während der zur Erweiterung benötigte Kabelaufwand sehr gering ist. Auch weist das System eine hohe Verfügbarkeit auf, da der Ausfall eines Geräts nicht die Arbeit der anderen gleichberechtigten Geräte beeinflusst. Dagegen steht die rapide Verschlechterung der Performance, wenn viele Geräte und viel Netzaufkommen zusammentreffen und damit zusätzlich auch noch die Kollisionen zunehmen und damit weitere Wartezeiten entstehen. Durch die Möglichkeit der Kollisionen muss auch der Ablauf bei Eintreten einer Kollision genau festgelegt sein. Deshalb wird bei der Bus-Topologie ein Zugriffsverfahren mit der Abkürzung CSMA/CD (Carrier Sense Multiple Access with Collision Detection = Übertragungsweg-Beobachtung bei einem Vielfachzugriff mit Kollisionserkennung) angewendet. Durch die Verzögerungen ist so ein Abstand zwischen zwei Datenpaketen immer unterschiedlich. So können echtzeitfähige Systeme, die in der Bühnentechnik zur Aufrechterhaltung von sicherheitsrelevanten Funktionen notwendig sind, nur schwerlich realisiert werden. Weiterhin ist in einem Bus sehr schwer, mit vielen angeschlossenen Teilnehmern ein Kabelproblem zu lokalisieren. Auch die Fehler auf einem Bus können den Ausfall des Busses und damit der gesamten Übertragung der Informationen zur Folge haben.
Betrachten wir nun weitere Ethernet-basierte Netzwerke in der Veranstaltungstechnik, so werden wir erkennen, dass auch Busstrukturen zu finden sind. Die daraus folgende Erkenntnis ist, dass z. B. die Ethernet-Fähigkeit der Geräte noch keinerlei Aussage zulässt, welche Busstruktur der Lichtanlage oder Bühnensteuerung zu Grunde liegt. Ein Twisted-Pair-Ethernet kann nämlich sowohl in Ring-, Stern- oder Bus-Topologie ausgeführt sein.
Größere Produktionsbetriebe mit mehreren Produktionsräumen können den Anspruch hegen, dass alle Daten überall verfügbar sind, um je nach aktueller Situation von verschiedensten Stellen aus eine sinnvolle Kommunikation der einzelnen Geräte miteinander zu erlauben. Dabei kann es durchaus vorkommen, dass nicht nur Räume und Etagen überwunden, sondern auch Verbindungen zu verschiedenen Häusern aufgebaut werden müssen. Auch möchte man die vorhandene Verkabelung nutzen, um verschiedenste Medien und Protokolle auf derselben Leitung zu übertragen. Soweit zur Anforderung, die jedoch gleich zwei Themenbereiche aufgreift.
Wenden wir uns nun erst einmal der Baumstruktur und erst später der zweiten Anforderung nach LAN-Schnittstellen zu. Um größere Entfernungen zwischen Stationen und damit verbundene Busleitung zu vermeiden, kann der Bus zu einer Baumstruktur erweitert werden. Dabei verästeln sich einzelne Busse ausgehend von einem übergeordneten Bus, der wiederum von einem übergeordneten Bus abhängen kann. Diese Verbindung erfolgt über Koppelelemente wie etwa Switch oder Hub, können aber auch durch Bridges oder Gateways (s. auch Abschnitt “Vermittlungseinrichtungen”), verkoppelt werden.
Diese Verästelung ist aber nicht nur auf Bussysteme beschränkt, sondern kann auch bei anderen Topologien angewendet werden, so dass wir den Rückschluss zum einleitenden Satz herstellen können: Mischformen sind möglich. Mehr noch, sie sind sinnvoll. Betrachtet man sich eine Lichtanlage, so ist es praktisch mit einer Busstruktur die Leitungen von Moving Light zu Moving Light zu verlegen. Dabei ist auch das nachträgliche Erweitern um zwei Moving Lights kein Problem. Die Verknüpfung von z. B. Weißlicht-, Effektlicht- und Havarie-Pult mit einem Medienserver, Dimmerschrank erfolgt sinnigerweise sternförmig. Bereits hier kann je nach Komplexität der Anlage die Sternstruktur zur Baumstruktur erweitert worden sein. Die Anbindung der Busstruktur zur Sternstruktur kann dann z. B. über ein Node erfolgen, der im praktischen Beispiel ein in der Sternarchitektur angesiedeltes Ethernet-Protokoll auf das Bus-Protokoll RDM umwandelt.
Besonderheit hierbei ist, dass der Netzwerk-Prozessor (NDP) der Firma MA in verschiedenen Modi arbeiten kann. Würde das System mit dem Artistik-Licence Proktokoll ArtNet arbeiten, ist der NDP als reiner Protokoll-Umwandler zu verstehen. Er wandelt die DMX-Werte, die im ArtNet-Protokoll eingebettet sind und dort über eine Stern-Topologie übertragen werden, in das Bussignal RS485 für DMX-512-Übertragung um. Damit wäre der NDP ein Gateway (Einfahrt), das unterschiedliche Systemarchitekturen mit unterschiedlichen Protokollen verbinden kann. In der Veranstaltungsbranche hat sich der Begriff Node ebenfalls etabliert.
Der NDP kann aber auch bei Einsatz des MA-eigenen Protokoll MA-Net als Erweiterung des Lichtstellpults arbeiten und berechnet die Überblendungen der von ihm ausgegebenen DMX-Linien. So können mehrere NSPs parallel rechnen, wodurch keine Verzögerung vom ersten zum letzten Kanal mehr entsteht, wie es bei Systemen, die über einen einzelnen Prozessor alle Berechnungen nacheinander durchführen müssen, erkennbar ist. Weil unsere Augen keine Verzögerung bei höchster Kanalanzahl und Tätigkeit durch dezentrale parallele Verarbeitung mehr erkennen können, spricht man hier gerne von Echtzeitverhalten, was aber mit einem Echtzeit-Kernel einer Bühnensteuerung und den Konsequenzen bei Überschreiten des Zeitfensters, nicht zu vergleichen ist.
Wenn eine zentrale Station einzelne Geräte auffordert ihre Daten zu übertragen, dann ist die Belegung der Verbindungsleitung zentral gesteuert. Den Sendeaufruf von der Zentrale nacheinander an die einzelnen Stationen, Daten zu übertragen, nennt man sequentielles Polling. Dagegen nennt man das Hub-Polling, wenn der Sendeaufruf von einer Station zur nächsten weitergeleitet wird. Allgemein ist beim Polling, dass eine Zentrale den Zugriff steuert und somit keine Kollisionen auf den Datenleitungen auftreten.
Dem zentralen Verfahren steht das dezentrale Verfahren gegenüber, bei dem mehrere Stationen gleichberechtigt sind. Um Kollisionen zu verhindern, sind bereits unter der Thematik Topologie die Begriffe Token und CSMA/CD gefallen. Beide Systeme haben sich als weltweiter Standard etabliert und werden hier exemplarisch behandelt. Daneben existieren natürlich auch andere Zugriffsverfahren, z. B. für Ringstrukturen das Contention-Ring-, Register-Insertion-Ring- oder Slotted-Ring-Verfahren und bei den Busstrukturen z. B. Token-Bus oder Reservierungsverfahren wie BRAM, MSAP oder Bit-Map-Methode. Aber auch hier gilt eine grundsätzliche Unterscheidung in eine deterministische Zugriffsweise, bei welcher der Zugriff eindeutig über eine Berechtigung zur Übertragung von Daten (Token access) geregelt ist und einer stochastischen Zugriffsweise (Random access), bei der alle Teilnehmer zu jeder Zeit versuchen können, die gemeinsame Datenleitung zu nutzen.
Das CSMA/CD-Verfahren findet meist in der Bus-Topologie mit einer Ethernet-Verbindung Anwendung. Will ein Gerät eine Sendung aufgeben, so muss es zunächst die Leitung abhören – ob die Leitung für die Übertragung frei ist, oder ob bereits eine andere Station sendet. Das Abhören nennt man Carrier Sense, also den Träger abhören. Ist er besetzt, so versteht es sich von selbst, dass man nicht senden kann und wartet und hört weiter den Träger ab, bis man keinen Traffic mehr auf der Leitung feststellt. Ist die Leitung frei, kann gesendet werden.
Dabei werden die Zieladresse und die eigene Absenderadresse mitgesendet, so dass jeder Teilnehmer im Netz erkennen kann, ob die Daten an sie gerichtet oder anderweitig von Relevanz sind. Haben aber zwei Stationen gewartet bis der Traffic auf der Leitung verstummte, dann versuchen beide Stationen gleichzeitig ihre Sendung zu starten (Multiple Access) und es kommt zu einer gleichzeitigen Sendung von Datensignalen, was eine Kollision darstellt. Um festzustellen, dass eine Kollision vorliegt, müssen die Stationen auch während der Übertragung die Leitung abhören (Collision Detection). Stellt man dabei eine Kollision fest, wird die Sendung abgebrochen und ein Signal blockiert (Jamming-Signal) gesendet. Nun halten beide Stationen inne, um es nach einer zufälligen Wartezeit erneut zu probieren. Durch die unterschiedlichen Wartezeiten ist der zweite Versuch meist von Erfolg gekrönt. Anhand dieses Prozederes wird aber auch deutlich, dass bei hoher Netzauslastung und großen Datenübertragungsraten die Kollisionen immer stärker zunehmen und es dann zu einer erheblichen Verschlechterung der Performance kommt.
Hier ist es so ähnlich geregelt wie beim Staffellauf: Nur die Station mit dem Staffelstab darf rennen. Im Netzwerk ist der Staffelstab ein bestimmtes Bitmuster (Token). Nur die Station mit diesem Bitmuster darf die Leitung zum Senden nutzen. Wenn die sendeberechtigte Station dann ihre Daten zur nächsten Station versendet, fügt sie dieses Token dem Datenpaket zu, sowie die eigene und die Zieladresse. Jede Folgestation überprüft beim Empfang, ob sie die Zieladresse der Daten ist und damit der berechtigte Empfänger des Datenpakets oder nicht. Ist diese Station gerade nicht der gewünschte Empfänger, dann wird das „belegte“ Token zur nächsten Station weitergereicht. Die Zielstation dagegen fügt dann dem Token eine Bestätigung hinzu, so dass der Absender, wenn das Token im Ring wieder zur Quelle zurückgekehrt ist, erkennt, dass die Nachricht empfangen wurde. Erst jetzt wird das Token als „frei“ gekennzeichnet und der nächsten Station mit Sendeerlaubnis weitergegeben. So sind Kollisionen auf der Leitung ausgeschlossen. Natürlich kann das Verfahren noch optimiert werden, z. B., wenn ein Token mit Daten belegt gekennzeichnet ist und abgesendet wurde, die gleiche absendende Station ein weiteres „freies“ Token generiert und danach absetzt. Somit kann der Datendurchsatz mit der Early-Token-Release-Methode erheblich gesteigert werden.
Leitungen sind die physikalische Verbindung der Geräte untereinander und bilden damit die Basis, worauf alle weiteren Vereinbarungen zur Informationsübertragung getroffen werden können. Um möglichst preiswerte Lösungen zu realisieren wird versucht, bestehende Lösungen, die bereits in Massen verfügbar sind, einzusetzen – denn Massenproduktion und eine Herstellerunabhängigkeit sind beinahe ein Garant für niedrige Kosten. Erst wenn man Funktionen für sein Produkt bereitstellen will, die mit vorhandenen Lösungen nicht realisierbar sind, werden eigene Entwicklungen getätigt. Um auf vorhandene Lösungen zurückzugreifen, liegt es nahe, deren Schnittstellen und Aufgaben zu definieren. Dabei stellte sich für verschiedene Aufgaben eine Hierarchie heraus, die zu einem Schichten-Ebenenmodell geführt hat, dessen festgelegte Dienste der nächst höheren Ebene zur Verfügung gestellt werden bzw. die Funktionen der niedrigen Schicht nutzt.
Eine internationale Vereinbarung wurde mit dem OSI-Referenzmodell (Open System Interconnection = Offenes Kommunikationssystem) von der ISO (International Standard Organisation) getroffen. Vorteil dieses Modells ist, dass einzelne Schichten ohne große Gesamtsystemänderung ausgetauscht und angepasst werden können. Dabei sind die Schichten 1 bis 4 für einen physikalischen Datentransport bis zu den Endgeräten wie Lichtstellanlage oder Medienserver verantwortlich, während die Schichten 5 bis 7 anwendungsorientiert sind:
Die siebte Schicht ist für die Verarbeitung von Programmanwendungen im Netzbetrieb vorgesehen. Sie sorgt für die Steuerung der untergeordneten Schichten und übernimmt die Anpassung an die jeweilige Anwendung. Somit stellt sie sich der Anwendungssoftware als Tor zur Außenwelt dar.
In der sechsten Schicht erfolgt die Anpassung der zu übertragenen Daten in ein zur Datenübertragung geeignetes Format. Unter Formatanpassung verstehen wir hier eine gemeinsame Syntax und gemeinsame Zeichensätze. Aber auch die Umkehr von der in der Übertragung verwendeten Syntax wieder in die lokale Syntax erfolgt in der sechsten Schicht.
In der fünften Ebene erfolgt über die Software die Steuerung der Kommunikation. Das heißt, hier wird der Ablauf des Dialogs zwischen den Endgeräten geordnet, Berechtigungen werden definiert und die Aufnahme, das Durchführen und das Beenden einer Sitzung (Session) wird gesteuert.
In der vierten Schicht kann eine Fehlerkorrektur und Fehlererkennung erfolgen. Sie sorgt für die Erweiterung von Verbindungen zwischen Endsystemen zu Teilnehmerverbindungen und bildet so die Verbindungsebene von anwendungsorientierten Schichten (im untenstehenden Bild in Blautönen dargestellt) zu den Datentransportschichten (im Bild in Grüntönen dargestellt).
Mit der dritten Schicht erfolgt der zeitliche und logische Auf- und Abbau der Verbindung im Netz und die Netzwerksteuerung von Gerät zu Gerät über eventuell vorhandene Vermittlungsstationen.
In der zweiten Schicht erfolgt der Verbindungsablauf von Netzwerkkarte zur nächsten, also den fehlerfreien Datentransfer über einen Übermittlungsabschnitt. In der zweiten Schicht erfolgt auch die Überwachung des Datenflusses und sie sorgt für die richtige Übertragung auch in die darüberliegenden Schichten.
Mit der ersten Schicht sind die physikalischen Anschlüsse und die Steuerung der Hardware definiert. Dazu gehört auch die Steuerung des Zugriffs auf die Datenleitung.
Natürlich haben sich im Laufe der Entwicklung verschiedene Möglichkeiten gleichzeitig entwickelt, so dass das OSI-Modell von diversen Protokoll-Familien nur annähernd wiedergegeben wird.
Die Kenntnis über Vermittlungsschichten nutzt aber auch in der Beurteilung von Equipment. So können z. B. Vermittlungseinrichtungen wie ein Switch sehr einfach aufgebaut sein und mit der MAC-Verarbeitung nur die Schicht 2 bedienen. Dieser Switch ist jedem aus jedem Elektronik-Markt durchaus als Low-Cost-Produkt bekannt. Bewältigt der Switch aber auch Level 3 bis Level 7-Aufgaben, so ist er auch mit Routing- und Gateway-Aufgaben zu konfigurieren und dementsprechend einer anderen Preisgruppe zuzuordnen. Auch ist es nicht unerheblich ob z. B. ein TCP- oder UDP-Protokoll oder beide angewendet werden. Denn UDP (User Datagram Protocol) ist ein verbindungsloses Protokoll, das einfach sendet ohne irgendetwas zu prüfen, während TCP (Transmission Control Protocol) zuerst zwischen Sender und Empfänger eine Verbindung aufbaut und dann die Daten inklusive Fehlerprüfung versendet. Das TCP-Protokoll hat auch die Aufgabe die zu übermittelnden Daten in kleine Datenpakete zu zerteilen. Diese können dann über verschiedene Wege zum Empfänger gelangen und werden dort in der richtigen Reihenfolge wieder zusammengesetzt.
Aus diesem Grund werden z. B. bei einem Lichtstellwarten-Protokoll Showdateien, die eine große Datenmenge enthalten, über TCP übermittelt, während Aktionen die „Echtzeit“ erfordern, wie z. B. das Abfeuern von Cues vom Stellpult, das wesentlich schnellere UDP bewerkstelligt.
Große vernetzte Projekte wie DR Byen (Danmarks Radio) weisen eine sehr große Ethernet-Struktur auf und erlauben eine bis dahin nie gekannte Flexibilität. Damit jedoch die verschiedenen Systeme wie Ton- und Licht-Netzwerke über die gleichen Switches und Leitungen betrieben werden können, ohne sich gegenseitig zu beeinflussen, hat man sogenannte Virtuelle Netzwerke (V-LAN) geschaffen. Dabei werden die Ethernet-Datenpakete mit einer besonderen Kennung versehen: Jedes V-LAN erhält eine eigene ID und nur die Datenpakete können an einem Switch-Port weitergeschaltet werden, dem auch die V-LAN entsprechende ID zugeordnet wurde. Somit können mit der Konfiguration des Switches eigene LAN-Strecken definiert werden, die sich auch überlappen können.
Natürlich kann man auch innerhalb eines Lichtnetzwerks mehrere V-LANs aufbauen, um paralleles Arbeiten zu erlauben – wie z. B. der Aufbau einer Show im Foyer, während der normale Probenbetrieb auf der Bühne vonstatten geht. Dabei hat man bereits auf der LAN-Seite eine Trennung geschaffen, die jegliche Beeinflussung ausschaltet, und somit völligen Handlungsspielraum jeder Seite zulässt. Das Foyer wird z.B. mit ArtNet betrieben, während auf der Bühne das Protokoll des Lichtstellpultherstellers verwendet wird.
Aber auch im Hinblick auf die Ressourcenbelastung sind V-LANs zu empfehlen, da bei Broadcast nicht alle Ports aufgeschaltet werden, sondern nur die des V-LANs. Und morgen kann alles völlig anders konfiguriert werden. Flexibilität pur, die zwar durch den etwas teureren managementbaren Switch erkauft wurde, aber sich im Nachhinein mit seinen Möglichkeiten voll auszahlen wird.
Zurzeit entstehen komplexe Netzwerke wie z. B. beim „dänischen Radio“ DR-Byen, bei denen nicht nur Lichtstellanlagen im Verbund mit Dimmern und Nodes zur Ansteuerung von Moving Lights ein Netzwerk bilden, sondern über ein und dieselbe Infrastruktur auch alle anderen Gewerke wie Ton, Video, Haus-, Bühnen-, Kommunikationstechnik usw. ihre Daten austauschen können. Bei der Mischung von einzelnen Netzwerken, die hinsichtlich ihrer Systemplattform, Betriebssoftware, Topologie und Zugriffsverfahren unterschiedlich sind, spricht man von vernetzten heterogenen Systemen. Außerdem kommt eine räumliche Komplexität hinzu, wenn dieses Netzwerk nicht nur in einem Studio, sondern überall innerhalb des kleinen Mediendorfs, das aus mehreren Gebäuden mit jeweils mehreren Studios und vielen weiteren Arbeitsräumen besteht, verfügbar sein muss. Dass hierbei die Übertragungsgeschwindigkeit bei dem entsprechend hohen Datenaufkommen der einzelnen Gewerke extrem hoch sein muss, ist selbstverständlich. Dass dabei auch verschiedenste Protokolle verwendet werden und die Datenflut nur dann beherrscht werden kann, wenn die Daten nur dorthin geleitet werden wo sie auch benötigt werden, ist eine der Herausforderungen für die Vermittlungsstellen, die wir jetzt in ihren Grundfunktionen vorstellen.
Ein Repeater (= Wiederholer) arbeitet ähnlich wie ein Booster beim DMX 512. Der Repeater verstärkt die Signale und leitet Sie 1:1 weiter. Dabei führt er keine Bearbeitung der Datenpakete durch. Der Repeater ist im OSI-Schichtenmodell in Ebene 1 angesiedelt. Droht z. B. aufgrund der Leitungslänge, dass Signale zu stark abgeschwächt werden, verstärkt der Repeater die Signale und ermöglicht so u.a., die kabelbedingte Eingrenzung der Übertragungsstrecke zu erhöhen wie z. B. beim Thin-Ethernet auf maximal 200 m. Ein Repeater kann also eingesetzt werden, wenn die Daten und Adressen 1:1 übertragen werden sollen. Das heißt, dass über einen Repeater zwei Teile eines gleichen Netzwerks, die das gleiche Netzwerkprotokoll benutzen, verbunden werden können. Der Repeater erlaubt aber auch zwischen verschiedenen Kabeltypen eine Verbindung zu schaffen, wenn das Protokoll das Gleiche ist, wie z. B. beim Thin-Ethernet zum 10Base2-Ethernet, wobei vom Koaxialkabel zum Twisted-Pair-Kabel gewechselt wird.
Wir verstehen dabei unter einem Hub (= Mittelpunkt, Angelpunkt) einen einfachen, elektrischen Verteiler im Netz, der alle Signale wie ein Splitterbooster, jedoch bidirektional, an alle angeschlossenen Geräte weiterleitet. Ein Switch (= Schalter) dagegen wird oft als ein schnellerer Hub gesehen.
Der Geschwindigkeitsvorteil erfolgt zwangsläufig durch den unterschiedlichen Aufbau. Dabei ist die Hauptaufgabe der Signalverteilung wie beim Hub um die Aufgabe der Verbindung von Teilnetzen oder Netzwerksegmenten in größeren Netzwerken erweitert worden. Dazu muss ein Switch in der Lage sein, jeden einzelnen Port zu- und abzuschalten bzw. Ports miteinander durchzuschalten. So schaltet der Switch Teilnehmer oder Netzsegmente zwischen den Ports durch. Stationen, die direkt am Switch angeschlossen sind, können auch direkt miteinander kommunizieren ohne die anderen Netzelemente zu belasten. Parallele Kommunikation zwischen verschiedenen Teilnehmern ist so möglich. Auch können damit Teilnehmer mit ihrer gemeinsam höchsten Übertragungsgeschwindigkeit direkt miteinander kommunizieren, während beim Hub der langsamste Teilnehmer die Übertragungsgeschwindigkeit diktiert. Kurz: der Switch erlaubt im Gegensatz zum Hub eine individuelle Adressierung der Teilnetze und damit eine schnellere Verteilung im Netz, wodurch die Performance verbessert wird.
Der Switch arbeitet seine Aufgaben direkt mit im Silizium eingebrachten Strukturen (ASIC) ab. Der Switch schaltet also nur Verbindungen zusammen, wenn er die Ziel-MAC-Adresse kennt bzw. diese an einem Port angeschlossen ist. Ein Switch kann erlernen, an welchem Port die Zieladresse angeschlossen ist bzw. wo dann hingeleitet werden muss. Die Daten werden dann zukünftig nur noch an diesen Port geschaltet. Er lernt es, indem er eine Nachricht erst einmal an alle Ports sendet. Wenn dann von der Zieladresse eine Antwort kommt, trifft diese an einem bestimmten Port ein. Diese Adresse wird in einer internen Tabelle jenem Port zugeordnet, so dass bei allen folgenden Nachrichten der Switch genau diesen Port erneut auswählen wird und dann nicht mehr auf alle Ports verteilt.
Dies funktioniert bei Unicast, wenn Absender und Empfänger je ein Gerät/Adresse ist.
Bei einem Broadcast, das an alle Netzwerkteilnehmer adressiert ist, lautet die MAC-Ziel-Adresse FF:FF:FF:FF:FF:FF und wird auf alle Ports geschaltet. Das belastet dann natürlich das Netzwerk, da dann alle Ports blockiert sind.
Multicast ist nicht ganz so gravierend, da es sich „nur“ an eine Gruppe von Geräten wendet. Die MAC-Ziel-Adresse bei Multicast dagegen ist mit 01:00:5E:00:00:00 definiert.
Bei der Auswahl des Switches spielt auch die aggregierte Bandbreite eine Rolle. Zum Beispiel sind bei einem 8 Port Switch gleichzeitig maximal vier Verbindungen zweier Stationen möglich. Teilt man also die Portanzahl durch zwei und multipliziert dies mit der Übertragungsgeschwindigkeit, erhält man die benötigte aggregierte Bandbreite. Man kann weiterhin Switches in zwei Gruppen einteilen. Einmal in die einfachen sowie in die managebaren:
Der einfache Switch besitzt keine Möglichkeiten Informationen auszugeben oder Einstellungen vornehmen zu lassen, ist aber sehr preiswert.
Mit dem managebaren Switch sind Einstellungen wie Spanning Tree oder IGMP (Internet Group Management Protocol), also das Protokoll zur Verarbeitung von Multicast-Sendungen möglich, denn wie bereits erwähnt, wird Multicast durch das Netzwerk selbst wie z. B. den eingesetzten Switch verwaltet. Der managebare Switch benötigt dann auch eine IP-Adresse, um von der Konsole bzw. Laptop mittels Browser eingestellt zu werden.
Kennt man die IP-Adresse des Switches nicht, kann man mittels Terminalprogramm und einem separaten Terminalanschluss eine IP-Adresse einstellen bzw. auslesen. So benötigen einige Netzwerk-Protokolle einen managebaren Server, um ihre Funktionsvielfalt realisieren zu können.
Hub oder Switch?
Ein Hub ist prinzipiell schneller, da er die Pakete einfach elektrisch weiterleitet.
Ein Hub ist einfacher in der Anwendung, denn er muss nicht konfiguriert werden.
Ein Hub ist deshalb im Servicefall auch einfacher auszutauschen.
Ein Hub blockiert nie Broadcast-Daten.
Der Switch erhöht die Performance im Netz, denn er kann die Datenpakete intelligent an die betreffenden Ports steuern.
Der Switch hilft zur einfachen Erweiterung des Netzwerks mit der 5-4-Regel.
Switch oder Router?
Der Switch ist sehr schnell, da er die Prozesse über maschinennahe Algorithmen statt über komplexere Software steuert (ca. Faktor 10).
Der Switch ist einfacher in der Anwendung, denn er muss nicht unbedingt oder zumindest weniger konfiguriert werden als ein Router.
Der Switch ist deshalb im Servicefall auch einfacher auszutauschen.
Der Router erlaubt mit seinen Algorithmen ein effektiveres Routing der Datenpakete.
Der Router erlaubt mit seinem ausgeklügelten Routing, eine bessere Havariestrecke auszuwählen.
Der Router kann die Bandbreitenkapazität durch effektive Datenpaketschnürung erreichen.
Ein Router kann separate Netzwerke miteinander verbinden. Aber auch umgekehrt kann ein Router verwendet werden, um aus einem Netz besser mehrere kleine separate Netze aufzubauen. Der Vorteil der Teilung der Netze ist, das jedes Netz seine eigene Netzadresse aufweisen kann und innerhalb des jeweiligen Netzes jeder Teilnehmer seine eigene Teilnehmeradresse unabhängig vom anderen Netz aufweisen kann. Dabei ist der Router mit einer eigenen Adresse ebenfalls Teilnehmer. Er überträgt nur dann die Daten von einem Netz zum anderen, wenn ihm die Adresse bekannt ist. Weiterhin werden über ausgeklügelte Pfadauswahlverfahren die optimalen Verbindungswege der Daten zur Zieladresse eingeschlagen, auch wenn weitere Netzwerke zwischengeschaltet sind, denn in der dritten Schicht stehen Routern die Informationen über Netzwerkadressen und Pfade zwischen allen Punkten des Netzes zu Verfügung.
Erst wenn die Netzwerke größer werden oder zum Zweck einer Fernwartung oder Fernsteuerungen das Internet mit zum Datenaustausch herangezogen wird, werden auch Router benötigt. Einmal können die Router auf der dritten Schicht den optimalen Weg der IP-Adressen vorgeben. Dazu müssen jedoch Algorithmen durchlaufen werden, die ein wenig Zeit in Anspruch nehmen. Aber ein Router kann auch erkennen, wenn ein Datenpaket ständig umherirrt und dann eine weitere Verbreitung unterbinden. Weiterhin kann der Router auch verhindern, dass alle Broadcastsendungen des Lichtnetzwerks in das Internet gelangen.
Damit z. B. bei Nutzung eines Netzwerks die Daten nicht in ein benachbartes Netzwerk oder das Internet gelangen, hat man drei Adressenbereiche eingerichtet, die grundsätzlich von Routern nicht weitergeleitet werden. So ist bestimmt der Adressbereich 192.168.xxx.yyy aus diversen Handbüchern bekannt, wenn es darum geht, das Lichtnetzwerk zu konfigurieren. Damit hat man verhindert, dass unkontrolliert viele Daten in das Internet hineinströmen, wenn man das Lichtnetzwerk mit einem Router (zwecks Fernwartung oder wegen des bequemen Downloads der neusten Firmware der Moving Lights) und dem Internet gekoppelt hat. Die anderen geblockten Adressbereiche lauten 10.zzz.xxx.yyy und 172.16-31.xxx.yyy. Denn wenn man eine Kopplung in das Internet wagt, wer sagt uns denn, dass nicht irgendjemand die gleiche IP-Adressen bei seinen Geräten eingestellt hat – und schon sind Probleme zu erwarten.
Eine Bridge (= Brücke) verbindet zwei Teilnetze miteinander. Der Unterschied zu einem Repeater besteht darin, dass die Bridge die Zieladresse ausliest und dann entscheidet, ob die Datenübertragung in das angeschlossene Teilnetz übertragen wird oder ob die Zieladresse sich im gleichen Teilnetz befindet wie die Quelladresse. In diesem Fall wird die Weiterleitung unterdrückt. Somit wird das zweite Teilnetz nicht belastet und die Performance kann steigen.
Die Bridge arbeitet in der 1. und 2. Schicht des OSI-Schichtenmodells und überträgt die Daten zwischen den Teilnetzen aufgrund der identifizierten MAC-Adressen. Dabei werden die Datenpakete nicht bearbeitet. Bei Remote-Bridges handelt es sich um zwei Bridges, die über eine Daten-Fern-Übertragung (wie z. B. eine Standleitung) miteinander verbunden sind. Damit können über große Entfernungen zwei Teilnetze miteinander zu einem gemeinsamen Netz verbunden werden.
Ein Gateway (= Torweg, Einfahrt) ist eine Art Übersetzer und arbeitet in den OSI-Schichten 3 bis 7. Er ermöglicht die Verbindung von unterschiedlichen Netzen, wie z. B. Großrechner mit UNIX-Betriebssystem, die bereits seit den 70er Jahren die ersten Schritte mit dem TCP/IP ausführten, mit Apple Rechnern, die Apple Talk verwenden, oder mit IBM-kompatiblen PCs, die mit ihren Client-Server-Systemen oder ab Win95 bzw. NT Netbios mit NetBEUI einsetzten. Das Gateway führt eine vollständige Umwandlung von einem Protokoll in das andere durch und ermöglicht so eine Datenkommunikation über Hardware und Software hinweg. Die Gateway-Funktion wird über Software realisiert, so dass ein Gerät namens Gateway in der Regel nicht zu finden ist, sondern sich als Software-Funktion in Geräten wie Routern wiederfindet.
In erster Linie kennt man eine Firewall, um den eigenen Heimrechner gegen Attacken aus dem Internet zu schützen. Man kann mit einer Firewall jedoch auch innerhalb der eigenen Netze eine Struktur aufbauen, um sensible Datenbereiche vor unberechtigtem Zugriff zu schützen bzw. Anwendern des einen Netzes den Zugriff auf sensible Daten des benachbarten Netzes zu versperren.
Eine Firewall wird im Verbindungsglied zweier Netze eingebunden und blockiert die Kommunikation zwischen den Netzen, wenn bestimmte definierte Kriterien nicht erfüllt werden. So können Firewall-Funktionen in Geräten wie Routern, Switches oder als PC-Software oder auch im Gateway integriert sein – genauso aber auch als eine Stand-Alone-Lösung angeboten werden. Die Firewall kann als Paketfilter arbeiten, das heißt sie kontrolliert alle eingehenden Datenpakete auf Quelladressen und Zieladressen, Portnummern von TCP- und UDP-Paketen sowie die Richtung des Datentransfers. Die Regeln werden vom Systemadministrator im Verbindungsrechner in entsprechenden Tabellen angelegt. Dagegen ist eine Firewall, die als Application Gateway arbeitet, wesentlich sicherer. Denn hier sind zur Kopplung der Netze zwei Netzwerkanschlüsse mit eigenen Netzadressen vorhanden (dual homed gateway): Die eine Adresse ist innerhalb des geschützten Netzwerks, während die andere Adresse für die Außenkommunikation zuständig ist. Der Vorteil liegt auch darin, dass von außen nur die Adresse des Application Gateway ersichtlich ist, d. h. die internen Netzwerkstrukturen bleiben nach außen hin verborgen. Ein Zugriff von außen kann nur über Identifizierung und Authentisierung, sprich einer Zugangskennung, erfolgen. So sind Passwortverwaltung und Nutzerprofile weitere Kontrollmechanismen.
Wenn man von einem Switch eine Leitung zum Nächsten legt und von diesem wiederum zu einem Weiteren und noch einige mehr, so kann es bei Unachtsamkeit schon mal vorkommen, dass man von einem Switch eine Leitung zurück zum Ersten legt. Somit hat man einen Loop geschaffen, der die unangenehme Eigenschaft hat, dass die Datenpakete in diesem Kreis umherlaufen ohne jemals an das Ziel zu gelangen. Dieser Kreisverkehr wächst sehr schnell an, dabei werden die Switches vollständig ausgelastet und das Netzwerk kommt zum Erliegen. Um dies zu verhindern, hat man nach IEEE 802.1D/t die Spanning Tree-Technik eingeführt, die die Bildung von Schleifen im Netzwerk verhindert, indem sie redundante Wege erkennen und nach bestimmten Regeln diese Stecke abschalten.
Neue Versionen nennen sich Rapid-Reconfiguration Spanning Tree (RSTP) oder Multiple Spanning Tree (MSTP) und sind in der Lage, den Ausfall der ersten Datenstrecke zu erkennen, um dann die redundante Datenstrecke wieder zuzuschalten. Somit ist kein Loop vorhanden, aber ein neuer Datenweg überbrückt nun die defekte Verbindung. Somit kann man also mit zwei Switches, die Multiple Spanning Tree beherrschen, eine redundante Datenstrecke bilden – sozusagen ein Backup der Datenleitung. Das klingt jetzt zwar sehr einfach und fantastisch, jedoch kann diese Technik in der Praxis auch ihre Tücken haben, denn wenn (wie in unserem untenstehenden Schaubeispiel) der Switch den Port neben Teilnehmer B zeitgleich ebenfalls als redundanten Weg erkennt und abtrennt, ist der Teilnehmer A isoliert und man muss sich die Konfiguration der Switches noch einmal ansehen. Vielleicht ist es dann günstiger, die Spanning-Tree-Funktion bei diesem Switch zu deaktivieren.
Havarie möglich durch Multiple Spanning Tree, angezeigt von einem Switch Menü
Jetzt stehen einem die diversen Vermittlungseinrichtungen zur Verfügung, von denen insbesondere Hubs und Switches mit Anschlüssen satt bestückt sein können und die unmöglichsten Verdrahtungen erlauben. Für einen korrekten Aufbau eines Netzes ist aber noch zu beachten, dass die Signale Laufzeiten aufweisen. Damit nach dem CSMA/CD-Verfahren eine Datenkollision wirksam gehandhabt werden kann, ist es wichtig, dass der Abstand zwischen den zwei entferntesten Endgeräten so klein ist, dass die Laufzeit (Propagation delay) von mindesten 575 Bits (kleinstes mögliches und korrektes Datenpaket) nicht überschritten wird.
Bei einem 10-Mbit-Netzwerk dauert ein Bit 100 Nanosekunden. Man kann diese Zeit als BT (Bit-Time) bezeichnen. Nun haben Elektroniken endliche Verarbeitungsgeschwindigkeiten, wie das Kabel auch. So kann man pauschal annehmen, dass Sender eine BT von 15,25 und Empfänger eine BT von 165 aufweisen, ein Hub für den Durchlauf 42 BT benötigt und ein Cat.5-Kabel 0,113 BT pro Meter ausmacht. Nun kann man die Zahlen gemäß dem Aufbau summieren und damit abschätzen ob das Netzwerk einwandfrei arbeiten wird. Jedoch muss eine zweite Variable noch in die Überprüfung mit einbezogen werden: Die Interframe Gap Shrinkage (IFG) ist die Zeit, die man der Elektronik erlaubt, um für das folgende Datenpaket bereit zu sein. Dabei wird für den Sender eine Zeit von 10,5 BT angenommen und ein Hub benötigt 8 BT – Leitungsverzögerung und die Empfängerverzögerung sind hierbei ohne Einfluss. In der Summe dürfen 49 BT nicht überschritten werden. In der Praxis hat sich daraus die 5-4-3-Regel entwickelt, die vorschreibt, wieviel Kabel und Hubs in einem Netz vorhanden sein dürfen.
In Bezug auf Datenkollision definiert man einen Netzabschnitt mit Kabeln und Hubs als Collision Domain. Der Übergang zu einem weiteren Netzsegment über eine OSI-2-Schicht, wie z. B. über eine Bridge, ist als Grenze der Collision Domain zu betrachten. Das Kabel zwischen Hubs, Endgeräten wie Nodes, Lichtstellanlage und Switches wird als Segment bezeichnet.
Die 5-4-3-Regel besagt, dass innerhalb einer Collision Domain eine Verbindung zwischen zwei Geräten (Nodes oder Lichtstellpulten) nicht mehr als fünf Segmente auseinander liegen darf. Weiterhin dürfen nicht mehr als vier Hubs oder Repeater eingebunden dazwischen liegen. Die drei der Regel betrifft nur Netzwerke mit Koaxialkabel (10Base2): Dort gilt noch die Einschränkung, dass eben nur drei Segmente mit Datenendgeräten (Nodes oder Lichtstellpulten) verbunden sein dürfen.
Eine weitere Regel ist die 2-4-Hub-Regel. Diese besagt, dass nur maximal zwei volle Hubs im Netzwerk vorhanden sein dürfen. Ein Hub ist voll, wenn zwei Segmente mit Endgeräten belegt und am Hub angeschlossen sind. Als halber Hub wird die Konstellation bezeichnet, wenn der Hub nur zur Verbindung eines weiteren Hubs dient und nur ein Segment mit einem Endgerät belegt angeschlossen ist. Es dürfen nur vier halbe Hubs zwischen zwei Endgeräten auftreten. Um dennoch größere Netzwerke aufzubauen, kann man einen Switch einsetzen. Dieser nimmt zunächst die Datenpakete auf, schließt die einzelnen Netzteile ab und bildet damit kleinere Collision Domains.