Netzwerk-Ratgeber

9 Tipps für ein schnelleres Unternehmensnetzwerk

26.08.2010
Von Matt  Prigge und Paul  Venezia

Duplikate: Sein oder nicht Sein

Da die Datenmenge in einem Unternehmen ständig exponentiell ansteigt, ist es vernünftig, Software zu nutzen, welche die teure Festplattenkapazität nach unnützen Dateien durchforstet. Eines der besten Beispiele sind Daten-Deduplikations-Tools. Wenn Sie Datenduplikate aus Ihrem Backup oder Ihrer Archivdatenbank löschen lassen, können Sie sehr viel Festplattenkapazität sparen. Denn es wird keine Duplikate mehr geben, sodass jede Datei nur noch einmal im Backup- oder E-Mail-Verzeichnis vorhanden ist.

Deduplikation hat die größten Stärken im Backup-Bereich. Ganz gleich, ob Deduplikations-Werkzeuge direkt im Backup-Programm oder erst auf dem Server angewandt werden, sie können so Ihren Backup-Speicherbedarf mit einfachen Mitteln deutlich reduzieren. Zudem werden ältere Daten nicht durch Unmengen neuer Daten überwuchert, sodass die Wiederherstellung von verhältnismäßig alten Inhalten genauso einfach von der gleichen Festplatte funktioniert, wie bei nur wenige Tage alten Dateien.

Wie alle großartigen Entwicklungen hat auch die Deduplikation ein paar Nachteile. Das deutlichste Problem ist die notwendige Rechenarbeit, die hinter der Deduplikation steckt. Es ist keine Überraschung, dass NetApp, einer der großen SAN-Verkäufer für Deduplikation auf primären Festplatten, gleichzeitig Hardware-Leistungsupgrades anbietet. Duplikate zu lokalisieren und zu bewerten benötigt einen nicht zu vernachlässigen Anteil an den Controller-Ressourcen. In anderen Worten, das Einsparen von Festplattenkapazität wird mit einem erhöhten Rechen- und Leistungsaufwand erzielt.

Zur Startseite