Netzwerk-Ratgeber

9 Tipps für ein schnelleres Unternehmensnetzwerk

26.08.2010 von Matt  Prigge und Paul  Venezia
Mit den folgenden neun Tipps werden Sie die Netzwerkgeschwindigkeit und -Zuverlässigkeit in Ihrem Unternehmen deutlich steigern können.

Probleme mit der Netzwerkgeschwindigkeit aufzuspüren und zu beseitigen ist keine leichte Aufgabe. Um mysteriöse Flaschenhälse aufzuspüren muss der Administrator ein sehr gutes Verständnis der gesamten Unternehmens-IT-Infrastruktur besitzen. Zudem muss der Administrator ein dickes Fell haben um in Stresssituationen immer noch geduldig Probleme zu entlarven.

9 Tipps für ein schnelleres Unternehmensnetzwerk.
Foto: Jetter AG

Um Ihr Netzwerk weiterhin auf Touren zu halten, haben wir für Sie mehrere Netzwerkbereiche ausgewählt, die Sie mit moderatem Aufwand verbessern können. Dadurch werden spürbare Leistungssteigerungen erzielt.

Beschleunigen Sie Ihr WAN

Die Unternehmens-IT war lange Zeit an gemietete Breitbandanschlüsse und teure WAN-Gebühren gebunden. Mehrere Gebäude mit T1-Verbindungen, MPLS oder Frame Relays auszustatten, war der einzige Weg eine zuverlässige Verbindung herzustellen. Dies hat sich jedoch in letzter Zeit geändert. Anstatt sich über hohe monatliche WAN-Gebühren zu ärgern sollten Sie eher über alternative Investitionen nachdenken.

Cogent Communications ist einer von mehreren Anbietern für Glasfasertechnologie in den USA. Die Netze solcher Dienste zu benutzen kann Ihrem Unternehmen viel Geld sparen. So können Sie Bandbreite an einer Stelle mit neuer WAN-Architektur sparen und für andere Dinge verwenden oder die benötigte Bandbreite reduzieren.

Sie können sogar überlegen einen eigenen VPN zwischen Ihre Gebäude zu schalten. Falls jedoch ihr SLA gut positioniert ist und das Netzwerk nur kleine Verzögerungen aufweist, ist ein VPN kein Thema. Denken Sie an die Vorteile einer 100 Mbps-Verbindung zwischen all Ihren Unternehmensgebäuden und einer Reduzierung Ihrer WAN-Rechnung um die Hälfte.

Gebäude außerhalb der Reichweite großer Glasfaserunternehmen sind gezwungen weiterhin auf unabsehbare Zeit eine gemietete Verbindung zu nutzen. Solche Verbindungen können von einem WAN-Beschleuniger, wie Riverbeds Steelhead, profitieren. Wenn Sie damit keine Bandbreitenerhöhung in diesen abgelegenen Gebäuden erzielen können, dann ist Ihre einzige Option die, den Datenverkehr bei diesen Gebäuden zu drosseln ohne die Wirkungskraft zu verringern. An dieser Stelle kommen WAN-Optimisierungs-Werkzeuge ins Spiel.

Trennen Sie sich von veralteter IT-Struktur

Viele Unternehmen hängen sehr an veralteten Applikationen und Plattformen, was die IT-Kosten und den Ressourcenverbrauch erhöht. Beispielsweise indem veraltete Software mit neueren IT-Strukturen in Einklang gebracht werden muss. So geschieht es, dass Sie mit einer brandneuen VMware vSphere-Architektur ein Dutzend Windows NT4 Desktops virtualisieren müssen.

Sich von veralteten Strukturen nicht trennen zu wollen, verursacht hohe Kosten, Instabilitäten und führt zu einem schlechten Zusammenarbeiten verschiedener Software. Statt sich in mehreren Meetings immer wieder darauf zu einigen, wie das 10-Jahre alte Benutzerkontensystem auf die neue Infrastruktur gestülpt werden kann, sollten Sie die Zeit für wichtigere Themen nutzen. Unser Tipp: Lassen Sie los und schaffen Sie Platz für Neues. Die Investitionskosten sind zwar zunächst hoch, aber auf lange Sicht wird es sich lohnen, freie Ressourcen geschaffen zu haben.

Das ist sowohl eine Personal-, als auch Technikfrage. IT-Fachleute sehen häufig die Welt durch einen Zerrspiegel, durch den gewisse Sympathien für die eine oder andere Software erzeugt werden. Dann können auch die eindeutigsten Daten und Fakten manchmal nicht weiterhelfen. Darum ist es manchmal nicht so leicht das IT-Völkchen von neuen Technologien zu überzeugen. Lassen Sie aber nicht locker, irgendwann sehen es auch die Hardliner ein.

Nutzen Sie Test-Labore

Es gibt keine Entschuldigung: Für die Kosten eines einzigen Servers können Sie sich ein riesiges IT-Test-Labor aufbauen. Ein einzelner, günstiger Dual-CPU, 12-Core Istanbul AMD 1U-Server kann ein Duzend virtueller Maschinen in einem Testszenario antreten lassen. Und das alles für etwa 1250 Euro (1500 US-Dollar). Wenn Sie zusätzlich VMware Server auf Linux oder VMware ESXi nutzen, können Sie sich teure Lizenzkosten sparen und zugleich eine zuverlässige Testplattform aufbauen. Sie können alles testen: Angefangen beim Aufspielen von Upgrades von verschiedenen Paketen, neue Betriebssysteme oder komplette Netzwerkarchitekturen.

Kombinieren Sie nun virtualisierte Server-Labore mit Tools wie GNS3, dann können Sie beinahe jede Netzwerk- oder IT-Infrastruktur-Änderung in dem Test-Labor überprüfen. Es gibt keinen einfacheren Weg herauszufinden, wo sich Ressourcen-Flaschenhälse befinden, als in so einer Testumgebung. Außerdem können Sie sehr schön herausfinden, wie viel CPU und RAM ein Server in Ihrem Verbund bei einer gewissen Auslastung benötigt, sodass Sie möglicherweise bestimmte Serveraufgaben auf leistungsschwächere Rechner auslagern und so Ressourcen für anspruchsvollere Aufgaben freisetzen.

Beobachten Sie einfach alles

Netzwerk und System-Aufzeichnungen sind der Großvater der Flaschenhals-Analyse. Wenn Nutzer sich über ein langsames Netzwerk beschweren, dann ist häufig mit dem Netzwerk selbst alles in Ordnung. Solange Sie jedoch keine Einrichtungen besitzen, die Ihnen exakt angeben kann wo das Problem ist, verschwenden Sie viel Zeit mit einer Problemsuche im Dunkeln.

Es gibt, egal ob Sie proprietäre oder Open-Source-Werkzeuge bevorzugen, unzählige Möglichkeiten um einfach alles, von Netzwerkverzögerungen und RAM/CPU Durchlass bis zu SAN-Leistungsdaten und der Daten-Abfrage-Warteschlange, genauestens aufzuzeichnen.

Vereinfacht gilt: Alles was existiert kann aufgezeichnet werden. Alles was aufgezeichnet werden kann, kann dann auch als Grafik oder Diagramm aufbereitet werden. Und sobald wichtige Daten visuell einsehbar sind können schnell die richtigen Entscheidungen getroffen werden. Dies beschleunigt Problemlösungsansätze um ein Vielfaches und sorgt so für deutlich geringere Netzwerk-Ausfallzeiten.

Wenn Sie sich aus den genannten Gründen für die Aufzeichnung der Netzwerkdaten entschließen, dann sollten Sie sicher gehen jedes noch so kleine Detail zu erfassen. Beispielsweise sollten Sie die CPU-Auslastung des Routers und der Switches, die Fehlerrate der Ethernet-Oberfläche und die Syslog-Daten Ihres Routers und Switches immer unter die Lupe nehmen und einen Alarm aktivieren, der bei ungewöhnlichen Vorkommnissen ausgelöst wird. Die vorsichtige und wohlüberlegte Einführung eines solchen Systems wird Ihnen Zeit, Geld, Energie und Nerven sparen.

Kennen Sie Ihre Apps?

Die Aufzeichnung der Infrastrukturdaten bringt Sie zwar schon weit. Ihnen hilft es aber um einiges weniger, wenn Sie nicht einmal wissen, welche Applikationen nun den Datenstau in Server XYZ auslöst. All die Computer- und Speicherressourcen, die Sie in Ihrem Unternehmen über das Netzwerk anbieten, werden von Applikationen beansprucht. Für viele von uns sind die meisten Applikationen jedoch wie schwarze Löcher. Wir sehen zwar den Effekt in der näheren IT-Infrastrukturumgebung, aber wirklich in die Applikation hineinblicken um die genauen Prozesse zu verstehen und diese möglicherweise zu optimieren ist für uns kaum möglich.

Sie sollten sich Zeit nehmen Ihre Applikationen genauer unter die Lupe zu nehmen um Schwachstellen herauszufinden. Nachteilige Eigenschaften, wie aufwändige und große Datensicherung, ressourcenaufwändige Log-In-Prozeduren oder massive Leistungseinbußen bei einem Backup, können Sie so aufspüren und teilweise Gegenmaßnahmen ergreifen.

Damit Sie diese Schwachstellen kennenlernen, sollten Sie vor dem Kauf einer Applikation darauf bestehen, diese testen zu können. Achten Sie sehr genau darauf, wie viele Ressourcen von der Applikation während eines Tests und unter Arbeitsbedingungen benötigt werden. So können gravierende Architekturmängel erkannt und so vielleicht ein Fehlkauf verhindert werden. Schließlich wollen Sie verhindern, dass Programmnutzer in Ihrem Unternehmen mit Fackeln und Mistgabeln auf die Administratoren losgehen.

Terabytes und Festplattenanzahl

In den letzten Jahren ist die Festplattenkapazität wahrhaft explodiert. Mit der Markteinführung einer 2 TB SATA-Festplatte ist es jetzt möglich mehr als 10 TB Daten in einem einzelnen Two-Rack-Unit Server unterzubringen. Das ist eine tolle Sache, denn jetzt brauchen Sie nicht mehr so viele Festplatten, richtig? Nicht so voreilig.

Es ist sehr wichtig, dass heutige SATA-Festplatten eines mit ihren Vorgängern gemeinsam haben, nämlich eine hohe Geschwindigkeit. Zwar ist es nun möglich 2 TB an Daten auf einer 7200 rpm SATA-Festplatte unterzukriegen, aber immer noch sind sie bei der Anzahl der Zugriffe beschränkt. Beispielsweise werden etwa 80 IOPS (I/O Operationen pro Sekunde) auf jeder Festplatte ausgeführt. Dann werden Sie schnell mit dem Leistungsvermögen Ihrer neuen Festplatte im Vergleich zu zwei 1 TB SATA-Festplatten unzufrieden sein. Denn zwei Festplatten können mehr IOPS bearbeiten als eine einzige.

Falls Ihre Applikationen häufig zufällige Schreib- und Leseanfragen an die Festplatten stellt, wie beispielsweise Datenbank- und E-Mail-Server, ist die bessere Strategie möglichst viele kleinere Festplatten zu verwenden. Zwar eignen sich die großen SATA-Festplatten gut um viele Daten abzulegen, aber die häufig angefragten und wichtigen Daten sollten sich weiterhin in Festplatten-Arrays mit mehreren kleinen Festplatten aufhalten.

Zauberwort Virtualisierung

Die Virtualisierung ist eines der tollsten Dinge, die seit langem für Unternehmens-Datenzentren, entwickelt wurden. Eine Vielzahl diverser Organisations-Tools und Überwachungs-Werkzeuge sind einfach implementierbar. Außerdem lassen sich virtualisierte Systeme frei skalieren, die Datenwiderherstellung ist einfacher als je zuvor und die Anzahl der physisch vorhandenen Server kann sehr viel geringer gehalten werden, was Ihrem Unternehmen hohe Energiekosten erspart.

Wenn die Virtualisierung falsch genutzt wird, kann man sich selbst ins Bein schießen. Halten Sie sich immer vor Augen, dass Virtualisierung keine Magie ist. Es kann keine CPU-Power oder Festplattenspeicher herbeizaubern.

Sofern Sie eine Virtualisierungs-Infrastruktur aufbauen, sollten Sie immer die physische CPU- und Arbeitsspeicher-Leistung im Blick behalten. Jeder gute Virtualisierung-Supervisor wird Ihnen gerne einen Einblick in die genutzte Technologie geben. Der wichtigste Problempunkt ist höchstwahrscheinlich das Festplatten-Leistungsvermögen, da diese verhältnismäßig schwierig variiert werden kann und meist der begrenzende Faktor für jede Virtualisierung darstellt.

Nehmen wir als Beispiel an, dass Sie 100 physische Server virtualisieren möchten. Typischerweise arbeiten die Server auf drei Jahre alter Hardware und benötigen 1 Ghz-CPU Bandbreite, 1 GB Arbeitsspeicher und bearbeiten 250 IOPS (Input/Output Operations Per Second) auf den Festplatten.

Sie können sich vorstellen, dass ein acht Socket, sechs-Kern X5650 Server mit 128 GB RAM diese Aufgabe sicherlich ganz ordentlich erfüllen wird. Schließlich hätten Sie ja 20 Prozent Puffer bei der CPU- und RAM-Auslastung, richtig? Das stimmt zwar, aber Sie müssen im Hinterkopf behalten, dass sie das Äquivalent von etwa 140 15000-rpm Glasfaser-Kanäle oder SAS-Festplatten in Ihrem Server benötigen, damit der eine Server die vielen IOPS verarbeiten kann. Es geht also nicht nur um Rechenleistung.

Duplikate: Sein oder nicht Sein

Da die Datenmenge in einem Unternehmen ständig exponentiell ansteigt, ist es vernünftig, Software zu nutzen, welche die teure Festplattenkapazität nach unnützen Dateien durchforstet. Eines der besten Beispiele sind Daten-Deduplikations-Tools. Wenn Sie Datenduplikate aus Ihrem Backup oder Ihrer Archivdatenbank löschen lassen, können Sie sehr viel Festplattenkapazität sparen. Denn es wird keine Duplikate mehr geben, sodass jede Datei nur noch einmal im Backup- oder E-Mail-Verzeichnis vorhanden ist.

Deduplikation hat die größten Stärken im Backup-Bereich. Ganz gleich, ob Deduplikations-Werkzeuge direkt im Backup-Programm oder erst auf dem Server angewandt werden, sie können so Ihren Backup-Speicherbedarf mit einfachen Mitteln deutlich reduzieren. Zudem werden ältere Daten nicht durch Unmengen neuer Daten überwuchert, sodass die Wiederherstellung von verhältnismäßig alten Inhalten genauso einfach von der gleichen Festplatte funktioniert, wie bei nur wenige Tage alten Dateien.

Wie alle großartigen Entwicklungen hat auch die Deduplikation ein paar Nachteile. Das deutlichste Problem ist die notwendige Rechenarbeit, die hinter der Deduplikation steckt. Es ist keine Überraschung, dass NetApp, einer der großen SAN-Verkäufer für Deduplikation auf primären Festplatten, gleichzeitig Hardware-Leistungsupgrades anbietet. Duplikate zu lokalisieren und zu bewerten benötigt einen nicht zu vernachlässigen Anteil an den Controller-Ressourcen. In anderen Worten, das Einsparen von Festplattenkapazität wird mit einem erhöhten Rechen- und Leistungsaufwand erzielt.

Beschleunigen Sie Ihre Backups

Backups sind fast immer langsamer, als Sie es gerne hätten. Und eine Problemlösung bei Backup-Leistungseinbrüchen ist häufiger eine Kunst als eine Wissenschaft. Aber es gibt ein allgemeines Problem, auf das jeder Backup-Administrator irgendwann einmal stößt.

Wenn Sie Ihre Backups direkt auf einem Tape aufzeichnen, dann werden die Tape-Laufwerke wahrscheinlich nicht ausgelastet sein. Die aktuelle Tape-Laufwerk LTO4-Generation ist theoretisch in der Lage mehr als 120 Mbps an Daten aufzuzeichnen. Jedoch werden die meisten Tape-Laufwerke so eine Datenrate niemals sehen. Hauptgrund ist das Fehlen von Backup-Quellen, deren Leseraten schnell genug sind um mit der Schreibgeschwindigkeit eines Tape-Laufwerks mitzuhalten. Nehmen Sie beispielsweise an, dass eine Backup-Quelle aus einem Paar SAS-Festplatten in einem RAID1-Array besteht. Theoretisch ist dieser Verbund in der Lage mehr als 120 Mbps zu liefern. Diese Geschwindigkeit ist allerdings nur in einer Laborumgebung realistisch. Für Standard-Windows Datenkopien werden über ein Netzwerk kaum höhere Datenraten als 60 Mbps erreicht. Darum werden viele Tape-Laufwerke deutlich weniger effizient, da die Buffer ständig leer sind.

Die Wurzel eines langsamen Backups ist also nicht das Tape-Laufwerk an sich, sondern der Speicherserver. Obwohl Sie nicht viel an dieser Geschwindigkeit ändern können ohne Unmengen an Geld in eine Disk-zu-Disk Backup-Lösung zu investieren, haben Sie mit einem SAN mehr Options-Möglichkeiten. Es hängt sehr davon ab, welche Art von SAN Sie nutzen und welche Backup-Software bei Ihnen läuft. Eine Lösung wären Host-Backups, die direkt vom SAN anstatt über das allgemeine Netzwerk laufen. Diese Umstellung hilft häufig schon die Backup-Geschwindigkeit deutlich zu erhöhen.

Der Artikel stammt von Matt Prigge und Paul Venezia. Sie sind Autoren bei unserem Schwestermagazin InfoWorld. Redakteure der PC-Welt haben den Beitrag übersetzt.