Netzwerke sind nicht fit für die Cloud

Cloud Computing ist in deutschen Unternehmen "angekommen". Demnach hat ein Großteil seine Bedenken bezüglich der Cloud überwunden und implementiert Cloud-Computing-Umgebungen. Häufig sind dies Private Clouds, die im eigenen Rechenzentrum vorgehalten werden.

Auch die Virtualisierung von IT-Ressourcen, sprich Servern, Speicherkapazitäten und Netzwerk-Ports, kommt voran: Laut einer Studie, welche die Marktforschungsfirma Vanson Bourne im Auftrag des Switch- und Storage-System-Herstellers Brocade durchführte, sind 46 Prozent der Server in Unternehmen in Deutschland, Großbritannien, Frankreich und Nordamerika bereits virtualisiert.

Sind Firmenrechenzentren und Corporate Networks somit für Technologien wie Cloud Computing, Virtualisierung, Big Data, Colllaboration und Software Defined Networking (SDN) gerüstet? Nein, so die Untersuchung von Vanson Bourne: Laut 91 Prozent der befragten IT-Verantwortlichen sind erhebliche Investitionen in die Infrastruktur ihrer Rechenzentren erforderlich, um diese für die steigenden Anforderungen durch Cloud Computing, Virtualisierung oder Big-Data-Projekte fit zu machen.

Netzwerke werden zum Bremsklotz
"Vor allem für die Netzwerkinfrastruktur bringt der Einsatz solcher Technologien eine deutlich höhere Belastung mit sich", sagt Dave Greenfield, Product Marketing Manager bei Silver Peak, einem, einem weltweit führenden Anbieter von Software, mit der sich Daten schnell, effizient und sicher über große Entfernungen übermitteln lassen.

"Viele Unternehmen übersehen jedoch diesen Faktor. Die Folge ist, dass beispielsweise Cloud-Anwendungen nur in unzureichender Qualität zur Verfügung stehen. Auch Big Data und Software Defined Networking sind ohne Netzwerkverbindungen mit einer gesicherten Dienstgüte und Bandbreite schlichtweg nicht denkbar."

Diese Einschätzung bestätigt die Studie von Vanson Bourne: Rund 61 Prozent der 1750 befragten IT-Experten gaben an, dass die Netzwerkinfrastruktur nicht den wachsenden Ansprüchen genügt. Und 41 Prozent mussten einräumen, dass Ausfallzeiten oder eine schlechte Verbindungsqualität bereits mindestens einmal finanzielle Schäden nach sich gezogen haben, etwa in Form von Umsatzeinbußen oder Strafzahlungen, weil Service Level Agreements (SLAs) gebrochen wurden.

WAN-Verbindungen müssen optimale Performance bringen
"Nicht die lokalen Netzwerke in einem Data Center oder an einem Standort sind das Kernproblem", erläutert Dave Greenfield. "Vielmehr übersehen Unternehmen und Organisationen in vielen Fällen die zentrale Rolle von Weitverkehrsverbindungen."

Die Nutzung von Cloud Computing führt Schott zufolge dazu, dass der Bandbreitenbedarf drastisch ansteigt. Das tangiert auch WAN-Links (Wide Area Network), über die Cloud-Rechenzentren mit einem Firmen-Data-Center verbunden sind oder über die Mitarbeiter in Außenstellen auf Daten und Anwendungen in einem zentralen Rechenzentrum zugreifen.

"Virtualisierte Anwendungen wiederum sind extrem interaktiv. Das heißt, es werden ständig Daten über das Weitverkehrsnetz transportiert", so Greenfield weiter. "Auch solche Applikationen sind somit von qualitativ hochwertigen WAN-Verbindungen abhängig. Die erforderliche Qualität lässt sich nur mithilfe von WAN-Optimierung sicherstellen."

Virtualisierte oder physische WAN Optimization Appliances, wie sie Silver Peak mit der NX-, VX- und VRX-Reihe anbietet, lösen mehrere Probleme, welche die Übermittlung von (Echtzeit-)Daten über große Entfernungen beinträchtigen, etwa

  • zu hohe Latenzzeiten (Latency), bedingt durch große Übertragungsdistanzen. Niedrige Latenzzeiten sind beispielsweise für Anwendungen wie Big Data (Echtzeitanalyse großer Datenbestände), den Zugriff auf Anwendungen in Cloud-Data-Centern oder das Spiegeln von Daten an anderen Standorten (Disaster Recovery) unverzichtbar.

  • Eine unzureichende Übertragungsqualität, bedingt durch die Überlastung von Switches und Routern auf der Übertragungsstrecke. Dies führt dazu, dass Datenpakete nicht oder in der falschen Reihenfolge übertragen werden und daher eine erneute Übermittlung erforderlich ist.

  • Verbindungen mit zu niedriger Bandbreite. In diesem Fall lässt sich mithilfe von WAN-Optimierung der Datenverkehr über WAN-Verbindungen um bis zu 90 Prozent verringern. Das spart Geld und ermöglicht es einem Unternehmen, neue IT-Services auch an Standorten bereitzustellen, an denen nur WAN-Links mit niedriger Bandbreite zur Verfügung stehen.


Fehlerhafte WAN-Verbindungen kosten Geld
"WAN-Verbindungen sind nach unseren Erfahrungen in vielen Fällen dafür verantwortlich, dass IT-Services den Anwendern nicht in der erforderlichen Qualität zur Verfügung stehen", sagt Greenfield. Die Resultate der Studie von Vanson Bourne / Brocade unterstreichen dies.

Demnach verzeichnen 16 Prozent der befragten Unternehmen täglich einen Ausfall des Netzwerks. Im Schnitt dauert ein solcher Vorfall rund 20 Minuten. Davon betroffen sind vor allem Datenbank-Anwendungen, Kommunikations-Tools und Office-Applikationen.

"Jeder IT-Leiter oder Geschäftsführer kann leicht hochrechnen, was es kostet, wenn in einer Außenstelle 100 Mitarbeiter 20 Minuten lang Däumchen drehen, weil die WAN-Verbindung streikt, und das unter Umständen mehrmals in der Woche", gibt Dave Greenfield zu bedenken.

"Daher ist es für jedes Unternehmen auch aus wirtschaftlicher Sicht geradezu ein Muss, die Stabilität des Netzwerks und der Weitverkehrsverbindungen sicherzustellen. WAN Optimization spielt dabei eine zentrale Rolle."

IAVCworld per E-Mail folgen