Rechenzentren sind für etwa zwei Prozent des weltweiten CO2-Ausstoßes verantwortlich. Allein in Deutschland haben sie 2020 die Energiebedarfsschwelle von 16 Milliarden kWh geknackt und 6,1 Millionen Tonnen Kohlenstoffdioxid produziert. Das ist nicht nur schlecht für die Umwelt, sondern verursacht signifikante Energiekosten. Vor allem in Anbetracht der steigenden Preise und des Drucks von Seiten der Klimapolitik ist ein strategischer Ansatz unumgänglich.
Andreas Junck, Senior Sales Director DACH von Gigamon verrät, was Betreiber von Rechenzentren auf Netzwerkebene tun können, um sowohl den Energieverbrauch als auch Kosten zu senken.
Energiesparendes Netzwerk – gewusst wie
In einem Rechenzentrum fressen sowohl der Server-Betrieb als auch die Storage- und Kühlsysteme den meisten Strom. Dabei fällt das Netzwerk häufig unter den Tisch. Alle Rechenzentren nutzen mehrere verschiedene Monitoring-, Security- und Analytics-Anwendungen, mit denen sie den Netzwerk-Traffic beobachten und analysieren.
Allerdings gehen Betreiber häufig davon aus, dass sie in hier nur wenig Kontrolle haben – weder über den Energieverbrauch des zugrundeliegenden Netzwerkverkehrs und der notwendigen Tools noch über die dadurch entstehenden Betriebs- und Energiekosten.
In Wahrheit können Betreiber bereits auf Netzwerkebene vier effektive Maßnahmen ergreifen – Stichwort: Sichtbarkeit mithilfe von Deep Observability. Nur wer genau weiß, wie sich der Netzwerk-Traffic zusammensetzt und welche Tools die verschiedenen Daten verarbeiten, kann für einen energie- und kosteneffizienten Rechenzentrumsbetrieb sorgen.
- Application Filtering
Application Filtering identifiziert bekannte Anwendungen innerhalb des Netzwerks anhand ihrer Traffic-Signatur – selbst wenn sie verschlüsselt sind. Im Zuge dessen wird der Datenverkehr von vertrauenswürdigen Anwendungen, die in der Regel ein hohes Datenvolumen generieren, herausgefiltert, wodurch Daten mit hohem und niedrigem Risiko voneinander getrennt werden. Das reduziert die Datenmenge im Netzwerk, was wiederum den Energieverbrauch der Tools verringert.
- Deduplikation
Redundanz spielt eine große Rolle, um die Verfügbarkeit und Ausfallsicherheit eines Rechenzentrums zu gewährleisten. Dabei werden Datenpakete im Netzwerk dupliziert. Das bedeutet jedoch, dass sich Analytics Tools automatisch durch ein doppelt bis vierfach so hohes Traffic-Volumen arbeiten müssen als auf Endnutzerseite eigentlich entsteht. Mithilfe von Deduplikation lassen sich mehrfach vorhandene Netzwerkdatenpakete einfach identifizieren und entfernen, bevor sie zur Analyse weitergesendet werden. Weniger Redundanzen bedeutet geringerer Energieverbrauch.
- Flow Mapping
Es ist bequem, alle Tools auf Hochtouren sämtliche Daten verarbeiten zu lassen, die durch das Netzwerk fließen. Logischerweise sorgt eine solche Überflutung für einen hohen Energieverbrauch. Idealerweise kümmern sich die einzelnen Tools auch nur um die Datenpakete, die für sie relevant sind. Beim Flow Mapping wird genau das umgesetzt: So wird der Datenverkehr den passenden Tools zugeordnet.
- Flow Slicing
Beim Flow Mapping geht es darum, dass den jeweiligen Tools nur die für sie relevanten Datenpakete und Informationen zugespielt werden. Vielen von ihnen reichen beispielsweise die initialen Setup-, Header- und Handshake-Informationen. Dagegen hilft Flow Slicing dabei, den Datenfluss entsprechend zu zerlegen und aufzuteilen. Dadurch verarbeiten Tools potenziell 80 bis 95 Prozent weniger Daten und verbrauchen folglich weniger Energie.
In Kombination sorgen diese vier Maßnahmen dafür, dass die Monitoring, Security und Analytics Tools, die in einem Rechenzentrum zum Einsatz kommen, effizienter vorgehen und Betreiber erhalten die vollständige Kontrolle über die Datenverarbeitung, die in ihrem Netzwerk stattfindet.
Dadurch lässt sich auch die Anzahl physischer, stromverbrauchender Geräte reduzieren. Allerdings braucht es dafür eine Deep-Obervability-Lösung, die auf Netzwerkebene für die nötige Sichtbarkeit aller Komponenten sorgt.