Server-based-Computing war in den 90ern noch ein exotisches Konzept. Zu dieser Zeit ging es noch darum, wer den größten Rechner unter dem Schreibtisch stehen hatte. Von Thin Clients, also schlanken Endpunkten, die einen wesentlichen Teil ihrer Ressourcen auf Server auslagerten, und zentralen Terminalstrukturen wollte damals noch kaum jemand etwas wissen.
Ein Gastbeitrag von Dipl.-Oec. Hermann Ramacher, Geschäftsführer der Advanced Digital Network Distribution GmbH.
Abstraktes Computing
Auch wenn der Umstieg nicht jedem Unternehmen gleichermaßen leichtfällt geschweige denn möglich ist, hat die Cloud-Revolution dem dezentralen Arbeiten massiv Vorschub geleistet. Während sich das anfangs auf das Teilen von Dateien über Server beschränkte, laufen mittlerweile ganz selbstverständlich eine große Zahl der täglich genutzten Anwendungen in der Cloud.
Als finale Abstraktionsstufe geht der Trend in Richtung vollständig virtualisierte Desktops, also komplette Arbeitsplätze in der Cloud, die sich praktisch von jedem Gerät mit Internetverbindung aus nutzen lassen.
Einmal bildlich gesprochen: Wenn ich wollte, könnte ich mir heute das CAD-Modell eines Teilchenbeschleunigers mit mehreren 10.000 Teilen auf meinem Smartphone ansehen, die entsprechende Bandbreite vorausgesetzt. Ungeachtet des praktischen Nutzens dieses Beispiels verdeutlicht es die Entwicklungssprünge, die IT in erstaunlich kurzer Zeit durchläuft.
Alte Bits in neuen Speichern?
In der grauen Vorzeit des Computerzeitalters bei IBM in den 1960ern funktionierten die ersten sogenannten Mainframe-Computer nach einem ganz ähnlichen Prinzip wie virtuelle Desktops heutzutage. Während sich im Reinraum der nicht gerade platzsparende Mainframe befand, loggten sich die Nutzer in einem Nebenraum über Terminals auf dem System ein und teilten sich die Ressourcen.
Das Personal Computing brachte eine Revolution mit sich und verlagerte die Rechenkapazitäten aus raumfüllenden Rechnerschränken unter die Schreibtische, was ganz neue Probleme mit sich brachte. Unternehmen mussten so eine Vielzahl an Geräten managen, die alle gewartet und aktualisiert werden mussten. Die Vernetzung von Computern und die Entwicklung von Server-Architekturen als zentrale Knotenpunkte in den Netzwerken vereinfachte dieses Problem wieder etwas. Doch selbst heute sieht es in den allermeisten Unternehmen trotz Cloud-Computing nicht wirklich anders aus.
Laufen z.B. das ERP oder produktionskritische Workloads selbstverständlich in einer Form von Cloud – ob Public, Private, Hybrid oder Multi –, so sind die Endpunkte aus Sicht der IT-Abteilungen ein unübersichtliches Chaos. Auch wenn das in Zeiten von BYOD mehr oder weniger akzeptiert wird, bringt es zwei maßgebliche Nachteile mit sich: Erstens ist die Verwaltung dieses Geräte-Dschungels aufwändig und somit teuer und zweitens ergeben sich zahlreiche Sicherheitsrisiken.
Mit VDI schließt sich der Kreis
Natürlich hat es in der Zwischenzeit viele verschiedene Ansätze zur Desktop-Virtualisierung gegeben, einschneidend war jedoch das Aufkommen von VDI – Virtual Desktop Infrastructure Mitte der 2010er-Jahre. Im Gegensatz zum Großteil der vorherigen Lösungen setzt VDI komplett auf das Outsourcen der Rechenleistung, was den Endpunkt – sprich das Gerät, mit dem auf den Desktop zugegriffen wird – vollständig entlastet.
Die genannten Nachteile lassen sich so praktisch restlos eliminieren. Die Nutzer haben nach wie vor die Freiheit, das Gerät ihrer Wahl zu nutzen, aber alle Ressourcen, Anwendungen und Dateien können wieder zentral gemanagt werden. Alles bleibt up to date und innerhalb des gesicherten Unternehmensnetzwerks. Unternehmen können so z.B. Hardware länger einsetzen – ein Gewinn für die Unternehmens- und Umweltbilanz. Neuinvestitionen fallen um ein Vielfaches geringer aus, da Endgeräte quasi kaum Leistung benötigen.
Auch lassen sich Legacy-Applikationen so wesentlich einfacher und sicherer weiterbetreiben, wodurch der Kostenfaktor eines möglichen Refactorings oder einer Migration abgefedert wird. Aktuell vollzieht sich der nächste konsequente Schritt: VDI aus der Cloud. Natürlich sind virtuelle Maschinen in der Cloud absolut nichts Neues. Neu aber ist, dass die großen Hyperscaler auf den Plan treten und sich des Themas VDI annehmen.
The next big thing!?
Ob AWS, Google oder Microsoft, alle stehen in den Startlöchern, den entstehenden Markt für sich zu erobern. Einen großen Vorsprung hat dabei Microsoft mit Windows Virtual Desktop. Wer auch nur ansatzweise die Diskussion im Umfeld von Konferenzen wie der Microsoft Ignite oder der IGEL Disrupt verfolgt hat, muss das große Interesse rund um das Thema wahrgenommen haben. Wenn die Vorteile von VDI auch länger auf der Hand lagen, war die Umsetzung aufgrund der technischen Herausforderungen und des Kostenfaktors für viele Unternehmen keine rentable Option.
Nun, da die Hyperscaler sich des Themas annehmen, entstehen mit Windows Virtual Desktop (WVD) Angebote, die ein äußerst attraktives Preis-Leistungs-Verhältnis bieten. Bereits jetzt nutzt eine fünfstellige Zahl von Unternehmen WVD. Dabei reicht das Nutzerprofil von kleinen und mittelständischen Unternehmen mit 10 bis 20 Nutzern bis hin zu großen Firmen beispielsweise aus dem Finanzsektor.
Prognosen gehen davon aus, dass der Markt insgesamt stark wachsen wird, durch eine große Nachfrage seitens Versicherungen, des Gesundheitswesens oder auch des öffentlichen Sektors. Aber wie bereits angedeutet ist auch bei KMU das Interesse groß, da WVD ihnen eine wirklich skalierbare IT-Infrastruktur als kompletten Managed Service bietet.
Kurzer Deep Dive zu Microsoft Windows Virtual Desktop
Neben den zahlreichen genannten Vorteilen stellt WVD weit mehr als bloßes VDI aus der Cloud dar. Nahezu alle Firmen nutzen für ihr Identitätsmanagement eine Form von Active Directory. Windows Virtual Desktop nutzt das Azure AD, das die Verwaltung von Nutzern und Sicherheitsgruppen noch einmal wesentlich vereinfacht. Ein weiterer großer Pluspunkt in Sachen Kosten und Skalierbarkeit ist Windows 10 Multisession, das erste echte Multi-Client-Windows.
Wer auf diesem Gebiet bewandert ist, weiß: Wollte man früher eine Multi-Client-Windows-Lösung realisieren, war man auf Windows Server angewiesen, was eine lange Liste von Problemen mit sich brachte. Viele Applikationen lassen sich schlichtweg nicht auf einem Server-OS installieren oder man muss ihnen vorgaukeln, sie liefen auf einem normalen Windows-Klienten.
Windows 10 Multisession macht den parallelen Betrieb mehrerer regulärer Windows-Sitzungen möglich und Unternehmen profitieren von einem vorteilhaften Lizenzierungsmodell. Auch für Windows-7-Nutzer gibt es einen Silberstreifen mit WVD: Wer auf Windows 7 (noch) nicht verzichten kann, der erhält bei einer Migration auf WVD für die nächsten drei Jahre kostenfrei weiterhin alle Sicherheitsupdates.
Zudem wurde viel an der Optimierung des Nutzererlebnisses von Office 365 innerhalb von Windows Virtual Desktop getüftelt. Da im Prinzip jede Anmeldung bei WVD wie die erste Anmeldung auf dem System wäre, würde z.B. das Öffnen von Outlook bei sehr großen Postfächern aufgrund des fehlenden Caches eine halbe Ewigkeit dauern, was elegant durch die Speicherung des Nutzerprofils auf einem SMB gelöst wurde.
Diese und weitere technischen Verbesserungen verdankt das Produkt dem Aufkauf von FSLogix durch Microsoft. Über eine weitere Entwicklung von FSLogix ist es beispielsweise möglich, Applikationen ohne Installation zur Verfügung zu stellen, sodass diese stets aktuell von einem Speicherort aus bei jeder Anmeldung geladen werden können, als ob sie tatsächlich auf dem System installiert wären.
Das Ende des realen Desktops?
Wer denkt, Citrix und Co. würden jetzt durch Microsofts eigene Lösung verdrängt, hat weit gefehlt. Von Anfang an war Citrix in das WVD-Projekt involviert und kann mit seinen eigenen Lösungen auf WVD aufbauen und dadurch zusätzliche Mehrwerte anbieten. Ich gehe davon aus, dass VDI in 5 bis 10 Jahren quasi in allen Organisationen eine Rolle spielen wird. Schon jetzt beobachten wir, dass Unternehmen ihre Rechenzentren an Microsoft verkaufen und diese dann zu neuen Azure-Regionen werden.
Sie realisieren, dass das Betreiben eines Rechenzentrums schlichtweg nicht zu ihren Kernkompetenzen gehört und wenig zu ihrem Geschäftserfolg beiträgt, während Hyperscaler diese Aufgabe wesentlich besser und kostengünstiger übernehmen können. Vorstellbar ist, dass langfristig alle Desktops in die Cloud gehen - warum, habe ich oben aufgezeigt.
Die Vendoren-Landschaft wird sich dabei in Zukunft nicht wesentlich von der heutigen unterscheiden, mit dem Unterschied, dass Microsoft und andere die grundlegende Infrastruktur bereitstellen, auf die das Partner-Ökosystem seine VDI-Angebote aufbaut. So profitieren alle von der Zukunftsfähigkeit von Clouds wie Azure, während sie auf einen breiten und ständig evolvierenden Technologie-Stack zugreifen können.