Künstliche Intelligenz ist mittlerweile in vielen Unternehmen angekommen. Diese zunehmende Verbreitung der Technologie steigert den Bedarf am Markt für sogenannte KI-PCs, die mit dedizierten Neural Processing Units (NPUs) ausgestattet sind. Sie steigern die Rechenleistung für zahlreiche KI-Workloads und revolutionieren so den Geschäftsalltag.
Viele Unternehmen mussten 2020, als Lockdowns einen klassischen Büroalltag vielerorts unmöglich machten, neue Geräte anschaffen. Notebooks, ausgerüstet mit genug Rechenleistung und praktischer Hardware für kollaboratives Arbeiten aus dem Homeoffice, waren der Verkaufsrenner.
Nun, fast fünf Jahre später, sind diese Rechner ein wenig in die Jahre gekommen. Das liegt unter anderem daran, dass Technologien wie künstliche Intelligenz, Machine Learning und Large Language Models in den vergangenen Jahren enorme Fortschritte gemacht haben – und auf ihnen basierende Anwendungen und Tools größere Leistung benötigen.
Die speziell für KI-Workloads ausgelegten Neural Processing Units (NPUs) werden in Zukunft immer wichtiger und erweitern die bisher bilaterale Hardware-Architektur, bestehend aus CPU (Central Processing Unit) und GPU (Graphics Processing Unit).
Mit ihnen ausgestattete PCs ermöglichen es Unternehmen, ihre KI-Strategien umzusetzen und sich auf eine von künstlicher Intelligenz geprägte Zukunft vorzubereiten. Dell Technologies nennt vier Punkte, in denen die neue Hardware-Generation Nutzer bei ihrer Arbeit unterstützt:
1. Effektivere Kollaboration
Viele Kollaborationstools bieten Nutzern schon heute weitreichende KI-basierte Funktionen etwa bei Videocalls. Beim Auto Framing erfasst entsprechende Software beispielsweise sämtliche Personen im Raum und stellt den Bildrahmen so ein, dass alle möglichst gut erfasst sind.
Mit entsprechenden Tools kann Eye-Tracking-Software zudem dafür sorgen, dass sich Videotelefonie am PC für alle Beteiligten natürlicher anfühlt: indem sie die Bildschirmelemente, zu denen die Augen während Calls hinwandern, automatisch so positioniert, dass der Blickkontakt mit dem Gesprächspartner möglichst nicht unterbrochen wird.
Ein weiterer Klassiker KI-basierter Funktionalität ist das Verwischen des Hintergrunds, um mögliche Ablenkungen oder ein privates Umfeld auszublenden. All die mit diesen Technologien verbundenen Workloads werden in KI-PCs von der NPU ausgeführt, was die Akkulaufzeit deutich verbessert.
2. Schnellere Content-Erstellung
Generative KI-Tools sind zum Beispiel extrem gut darin, aus Texteingaben passende Grafiken und Bilder zu erstellen. Für herkömmliche PCs sind die hierfür erforderlichen enormen Rechenleistungen allerdings ein kräftezehrender Prozess.
In KI-PCs hilft die NPU der grafischen und der zentralen Prozessoreinheit auf die Sprünge, sodass KI-Bilder um ein Vielfaches schneller generiert werden können. Das verkürzt die Wartezeit und steigert somit die Produktivität der Nutzer.
3. Sicheres Arbeiten in Hybrid-Work-Umgebungen
Viele Sicherheitsanwendungen laufen in der Cloud und werden zentralisiert von den Administratoren verwaltet. Auch in dieser Hinsicht können NPUs zukünftig ihre Stärke ausspielen, indem Unternehmen essenzielle Cybersecurity-Funktionen über die Neural Processing Unit auf das Gerät selbst verlagern.
Dies ermöglicht eine umfassendere Erkennung von Bedrohungen auf Client-Seite und hilft Usern beispielsweise, bösartige Webseiten und Schwachstellen im System schneller zu erkennen. Da die Algorithmen auf dem Gerät selbst ausgeführt werden, entfällt mit NPUs die Latenzzeit, die bei der Nutzung rein Cloud-basierter Lösungen entsteht.
4. Effizienteres Arbeiten mit KI-Assistenten
Die meisten Nutzer von KI-Tools kennen unangenehme Wartezeiten. Bis der Prompt verarbeitet und die Ergebnisse übertragen wurden, vergeht oft unnötig viel Zeit. Diese Latenz lässt sich durch KI-PCs mit NPU reduzieren, indem etwa auf LLMs basierende Chatbots vollständig lokal oder zumindest im Hybridmodus laufen.
Ein lokales Modell wird sich – sobald die Rechenkapazität on-premises bei den Usern vorhanden ist – auch aus Sicherheits- und Compliance-Gründen für viele Unternehmen lohnen.
„Die Zukunft traditioneller und generativer KI wird zunehmend auf den Endgeräten der Nutzer stattfinden“, betont Ute Riester, Senior Manager Field Product Management Client Solutions bei Dell Technologies. „Dafür bedarf es allerdings der nötigen Ausstattung in Form von Neural Processing Units. NPUs bringen für Devices exakt die zusätzliche und dedizierte Rechenpower, um zukünftige KI-Workloads effizient und energiesparend zu verarbeiten.“