Betreibt man ein Netzwerk, gibt es immer etwas zu tun. Diverse Fehlerquellen stellen Administratoren vor stets neue Aufgaben. Viele dieser Fehler tauchen auf, weil das Netzwerk nicht optimal eingestellt wurde. Oft hilft dann nur ein kompletter Systemcheck in der gewohnten Reihenfolge: erst die Hardware, dann die Software.
Erst Hardware, dann Software
Der erste Blick auf die Hardware legt schnell Verbesserungspotenzial frei. So sollte man den Standard-Router des Providers einer Überprüfung unterziehen. Ein Dual-Band-Router stellt 2,4 und 5 Ghz zu Verfügung. Über die 2,4-Ghz-Leitung lassen sich häufig genutzte Geräte wie Smartphones miteinander verbinden, während die 5-Ghz-Leitung für anspruchsvollere Dienste reserviert ist. Generell weisen Router erhebliche Unterschiede hinsichtlich der Performance auf. Bei einem Test der Computerfachzeitschrift Chip hat beispielsweise der Sitecom WLR-6000 am besten abgeschnitten. Der maximale Datendurchsatz liegt bei diesem Router bei 222,4 MBit pro Sekunde.
Die Leistung des Switchs sollte sich an der des Routers orientieren und eine adäquate Bandbreite bieten. Als grobe Orientierung kann man sich merken, dass 16 Gigabit pro Sekunde einen guten Wert darstellt. Weniger Bandbreite führt dazu, dass nicht alle Ports parallel mit voller Bandbreite betrieben werden.
Das Monitoring als Kür
Ein wesentlicher Bestandteil eines Netzwerks ist das Monitoring. Hilfreiche Tools und Programme zur IT-Verwaltung gestalten diese sehr komplexe Aufgabe übersichtlich und automatisieren sogar manche Prozesse. Der Server & Application Monitor beispielsweise ist ein nützliches Tool zum Server Monitoring, also zur Überwachung der gesamten Infrastruktur. Das Programm verwendet Ausgangswerte als Basis und gibt Warnungen aus, wenn Teilbereiche nicht optimal laufen.
Da Betreiben eines Netzwerkes bietet immer wieder neue Herausforderungen. Anders als bei anderen Systemen können hier viele Faktoren dazu führen, dass das Netzwerk nicht optimal eingestellt ist. Nach einem Hardware-Check hilft ein softwarebasiertes Monitoring System, den Überblick zu bekommen und zu bewahren.
Eine solide Server-Infrastruktur bildet das Fundament jedes erfolgreichen Tech-Projekts. Ob Webanwendung, API-Backend oder datenintensiver Dienst – wer die Server-Infrastruktur-Performance von...
Intel hat neue Desktop-Prozessoren der Serie Intel Core Ultra 200S Plus vorgestellt. Zu den ersten Modellen gehören der Intel Core...
Die Sharkoon OfficePal KB70W soll laut Hersteller ein besonders komfortables und leises Tippgefühl für den Büroalltag bieten. Dafür setzt die...
Der Arbeitsspeicher ist ein zentraler Bestandteil jedes Computers und hat einen entscheidenden Einfluss auf die Leistungsfähigkeit des Systems. Je nach...
SanDisk hat auf der Embedded World 2026 in Nürnberg zwei neue industrielle Speicherkarten vorgestellt: die IX QD352 microSD und die...
Crucial bietet DIMM-Module der Pro-OC-Familie in unterschiedlichen Konfigurationen an. Wir haben uns zwei Kits mit 6.400 MT/s und Größen von 2 x 16 GB sowie 2 x 32 GB im Praxistest genau angesehen.
Mit dem T-FORCE XTREEM bietet TEAMGROUP einen DDR5 Desktop-Memory mit Geschwindigkeiten von bis zu 8.200 MHz an. Wir haben uns das DDR5-8000 Kit mit 32 GB im Test genauer angesehen.