Hardware-Monitoring

Schlüsselelemente des Server-Managements

12. September 2022, 11:36 Uhr | Autor: André Schindler / Redaktion: Lukas Steiglechner | Kommentar(e)
Frau überprüft Rack
© Seventyfour74 / 123rf

Damit die Basis der IT – die Server – stets reibungslos arbeiten, müssen ihre Komponenten konstant überwacht und gewartet werden. Dabei stehen fünf technische Kernaspekte im Fokus, um die Effizienz und die Zuverlässigkeit der Systeme jederzeit sicherzustellen.

Um ihre IT-Umgebung funktionsfähig zu halten, lagern viele Unternehmen ihr Server-Management an Dienstleister aus – auch um dem anhaltenden Fachkräftemangel zu begegnen. Dabei sind gerade die Server das Herzstück der IT. Grundsätzlich gilt: Ob über Cloud-Dienste, auf eigener Infrastruktur oder in einer hybriden Umgebung – Server-Management muss sich an Best Practices orientieren, um die Verwaltung der Hardware möglichst effizient zu gestalten.

Das Server-Management umfasst alle erforderlichen Überwachungs- und Wartungsarbeiten, die den zuverlässigen Betrieb der Server mit optimaler Leistung gewährleisten sollen. Dazu zählt unter anderem die Verwaltung von Hard- und Software sowie IT-Sicherheitsmaßnahmen und Back-ups. Ziel des Server-Managements ist es, die Zuverlässigkeit der Systeme zu maximieren, Verzögerungen und Ausfallzeiten zu minimieren, aber auch Serverumgebungen physisch und virtuell abzusichern. Die Hardware bildet dabei die Grundlage des Server-Managements, denn sie muss funktionsfähig und belastbar bleiben, um den Geschäftsbetrieb ideal zu unterstützen. Fünf Komponenten beziehungsweise Aspekte müssen im Fokus stehen: Festplatte, Arbeitsspeicher, Hauptprozessor, CPU-Temperatur und Notstromversorgung.

Anbieterkompass Anbieter zum Thema

zum Anbieterkompass

Festplatten und Betriebsumgebung

Festplatten dienen als dauerhafter Speicher für den Server. In vielen Fällen werden sie aber auch zum Zwischenspeichern verwendet, was zu Leistungsproblemen führen kann, wenn die Kapazität der Speichermedien erschöpft ist. Und da wichtige Daten auf dieser Ebene gespeichert sind, sollten IT-Verantwortliche ihre Festplattenauslastung jederzeit genau überwachen, damit die benötigte Speicherkapazität bei Bedarf immer zur Verfügung steht.

Unternehmen müssen den Zustand der Festplatten generell immer im Auge behalten, um kostspielige Ausfälle und damit verbundene Datenverluste zu vermeiden. Zusätzlich spielt die Betriebsumgebung eine entscheidende Rolle. Server müssen an einem Ort mit optimalen Umgebungsbedingungen untergebracht werden: So sollte ein Server-Raum unter anderem mit streng kontrollierter Luftfeuchtigkeit eingerichtet werden. Fällt die relative Luftfeuchtigkeit hingegen in kritische Bereiche oder steigt sie über 50 Prozent, sollte das nötige Equipment vorhanden sein, um die idealen Bedingungen wiederherzustellen. Ebenso verhält es sich mit der Kühlung: Zwar ist moderne Hardware weniger stör- und temperaturanfällig, Server arbeiten allerdings immer noch am zuverlässigsten bei einer Umgebungstemperatur zwischen 18 und 21 Grad Celsius. Und aus Sicherheitsgründen sollten die Server selbstverständlich nur für befugte Personen zugänglich sein. Eine Zugangsüberwachung kann helfen, unberechtigte Aktivitäten spätestens im Nachhinein zu identifizieren und dem Vorfall auf den Grund zu gehen.

Arbeitsspeicher und Prozessor

Der Direktzugriffsspeicher – bekannt als RAM (Random Access Memory) – ist der temporäre Arbeitsspeicher eines Servers, der für schnelle Operationen und das Caching verantwortlich ist. Er steht in direktem Zusammenhang mit der Leistung eines Systems, vor allem bei anspruchsvollen Anwendungen. Sollte der Arbeitsspeicher bei regulärer Nutzung aber nicht mehr ausreichen, kann dies die Leistung beeinträchtigen oder gar zur Folge haben, dass die Programme nicht mehr laufen. Um entsprechenden Störungen vorzubeugen, müssen Unternehmen auf ausreichende Kapazitäten setzen und vor allem bei ansteigender Belastung rechtzeitig aufstocken, um weiterhin einen reibungslosen IT-Betrieb zu gewährleisten.

Der Prozessor – oder Central Processing Unit (CPU) – gilt wiederum als das Gehirn eines Servers, das alle Berechnungen durchführt und Programme laufen lässt. Prozessoren sind nicht nur unverzichtbar, sondern auch stark beansprucht und müssen aus diesem Grund ständig überwacht werden. Das dauerhafte Monitoring vermeidet im besten Fall eine folgenschwere Überlastung, denn diese kann zu verlangsamten Abläufen bis hin zu kompletten Systemabstürzen führen. Sollte es zu einem überlasteten CPU kommen, sind mehrere Lösungsansätze möglich: Die naheliegendste Option ist ein Upgrade. Alternativ können IT-Verantwortliche zusätzliche CPU-Ressourcen eines anderen Assets hinzufügen. Darüber hinaus lassen sich entsprechende Prozesse, die viele Ressourcen in Anspruch nehmen, stoppen oder etwa die systemweite Leistung feiner justieren, um die CPUs zu entlasten.

Zudem erhitzen CPUs bei intensiven Rechenvorgängen leicht. Viele Server-Farmen stehen daher nicht von ungefähr an kalten Orten und nicht selten auch mal unter Tage oder unter Wasser. Wenn CPUs zu heiß laufen, könnte dies jedoch im schlimmsten Fall einen Komplettausfall bedeuten. Server sind aus diesem Grund standardmäßig mit Kühlsystemen sowie Thermometern ausgestattet und ermöglichen somit ein einfacheres Temperaturmanagement aus der Ferne. Nähert sich die Temperatur eines Servers dem gefährlichen Bereich, können IT-TechnikerInnen die Hardware abschalten und die Situation beurteilen, bevor es kritisch wird.

Überhitzungsprobleme werden häufig durch eine übermäßige Belastung des Systems oder durch fehlerhafte Kühlvorrichtungen verursacht. Oft soll noch mehr Leistung aus den Prozessoren herausgeholt werden, das Übertakten kann mit einer Leistungssteigerung einhergehen. Dennoch muss das System stabil laufen und das Team dazu besonders auf eine mögliche Überhitzung achten. Für Unternehmen lautet daher die Empfehlung, bei der empfohlenen Prozessorgeschwindigkeit zu bleiben und die Last zu verteilen.

Notstromversorgung

Auch die Stromversorgung kann durch verschiedene interne oder äußere Faktoren unterbrochen werden. Um große Datenverluste zu vermeiden, sollte jeder Server-Raum daher über eine Notstromversorgung verfügen. Bei Stromausfall, Spannungsschwankungen oder beim Durchbrennen einer Sicherung – auch wenn es nur ein paar Minuten dauert – erwarten AnwenderInnen, KundInnen oder auch die KollegInnen, dass dies keine Auswirkung auf den Betrieb hat. Um dies zu gewährleisten, stehen zahlreiche Optionen zur Verfügung: von unterbrechungsfreien Stromversorgungen (USVs) mit integriertem Überspannungsschutz bis hin zur Notstromversorgung, die den Server während eines Stromausfalls für kurze Zeit am Laufen halten kann.

Server sind die Grundlage einer zuverlässigen, funktionsfähigen IT-Umgebung. IT-Fachkräfte sollten das Server-Management daher nicht unterschätzen und vor allem die Hardware im Blick behalten. Hier gilt: Lieber Vorsicht als Nachsicht, denn ein kleines Server-Problem kann sich schnell zu geschäftsschädigenden Ausfallzeiten entwickeln. Es gibt auf Hardware-Ebene einige wichtige Stellschrauben, die die Grundlage für ein solides Server-Management bilden.

Ist dieses Fundament gelegt, können sich die Verantwortlichen gegebenenfalls mit den anderen Aspekten beschäftigen. Für Unternehmen, die kein eigenes IT-Team oder nur knappe IT-Ressourcen haben, kann es in der Praxis allerdings die bessere Lösung sein, das Server-Management an externe Fachleute auszulagern.

André Schindler, General Manager EMEA, Ninjaone


Verwandte Artikel

funkschau

Anbieterkompass