Akamai hat sein wachsendes Cloudportfolio um ein neues medienoptimiertes Angebot auf Basis von NVIDIA-GPUs erweitert. Mit der NVIDIA-GPU RTX 4000 der Ada-Generation sorgt der neue cloudbasierte Service für eine höhere Produktivität und Wirtschaftlichkeit in Unternehmen der Medien- und Entertainment Branche, die Videoinhalte schnell und effizient verarbeiten müssen.

Interne Benchmarks von Akamai haben gezeigt, dass die GPU-basierte Codierung mit der NVIDIA RTX 4000 die Verarbeitung von Bildern pro Sekunde (FPS, Frames pro Sekunde) 25-mal schneller bewerkstelligt als herkömmliche CPU-basierte Codierungs- und Transcodierungsmethoden. Dies stellt einen bedeutenden Fortschritt bei der Bewältigung der typischen Workload-Herausforderungen von Streaming-Anbietern dar.

Mit dem Angebot von Akamai können Medien- und Entertainmentunternehmen skalierbare, ausfallsichere Architekturen aufbauen und Workloads bereitstellen, die schneller, zuverlässiger und portabler sind. Gleichzeitig profitieren sie von der weltweit am stärksten verteilten Cloudplattform sowie den integrierten Services für Inhaltsbereitstellung und Sicherheit.

„Medienunternehmen benötigen zuverlässige Computing-Ressourcen mit geringer Latenz, die die Portabilität der von ihnen erstellten Workloads gewährleisten“, so Shawn Michels, Vice President of Cloud Products bei Akamai. „NVIDIA-GPUs bieten ein hervorragendes Preis-Leistungs-Verhältnis, wenn sie auf der globalen Edge-Plattform von Akamai bereitgestellt werden. Zusammen mit unseren qualifizierten Computing-Partnern und der offenen Plattform bieten wir unseren Kunden die Möglichkeit, ihre Workloads der nächsten Generation Cloud-unabhängig zu gestalten und Multicloud-Architekturen zu unterstützen.“

Hoher Bedarf an für die Branche optimierten GPUs
In einem Markt, der sich stark auf die Verwendung von NVIDIA-GPUs zur Unterstützung von Large Language Models konzentriert, zielt der auf Medien zugeschnittene GPU-Service von Akamai auf eine Branche ab, der aktuelle Angebote nicht genügen. Auf der Grundlage seiner langen Unternehmensgeschichte und seiner umfassenden Erfahrung in diesem Bereich hat Akamai sein neues GPU-Angebot so optimiert, dass es den hohen und spezifischen Anforderungen der Medien- und Entertainmentbranche gerecht wird.

Anwendungsfälle
Die NVIDIA-GPU RTX 4000 erreicht eine hohe Geschwindigkeit und Energieeffizienz. Das ist erforderlich, um anspruchsvolle, kreative Design- und Engineering-Workflows für die Erstellung digitaler Inhalte, 3D-Modellierung, Rendering, Inferenz sowie Videoinhalte und Streaming zu bewältigen. Zu den medienspezifischen Anwendungsfällen gehören:

  • Videotranscodierung und Live-Videostreaming
    GPUs können Live-Videostreams schneller transcodieren als in Echtzeit. Sie können so das Streaming-Erlebnis verbessern, indem sie die Pufferung reduzieren und eine gleichmäßige Wiedergabe ermöglichen. GPU-basierte Codierung verbessert die Effizienz und verkürzt die Verarbeitungszeiten im Vergleich zu herkömmlicher CPU-basierter Transcodierung.

    Die NVIDIA-GPU RTX 4000 ist mit der neuesten NVIDIA-NVENC- und NVDEC-Hardware ausgestattet, die zusätzliche Kapazitäten für gleichzeitige Codierungs- und Decodierungsaufgaben bietet. In Anwendungen wie z. B. Livestreaming, die eine Videoverarbeitung mit hohem Durchsatz erfordern, ist dies besonders entscheidend. Die NVENC-Engines der achten Generation unterstützen die neuesten Videocodecs, einschließlich des hocheffizienten AV1-Codecs. Dieser ermöglicht Videos in höherer Qualität bei zugleich niedrigeren Bitraten.

  • Virtual Reality (VR) und Augmented Reality (AR)
    Für VR- und AR-Anwendungen müssen 3D-Grafiken und Multimediainhalte in Echtzeit gerendert werden. GPUs eignen sich hierzu besonders gut.

Auch wenn Akamai die neue Lösung für den Medienmarkt optimiert hat, ist das Angebot ebenso für Entwickler und Unternehmen passend, die Apps in Bezug auf verschiedene andere Anwendungsfälle der Branche entwickeln möchten, darunter:

  • Generative künstliche Intelligenz und maschinelles Lernen (Gen AI/ML)
    Eine der primären Anwendungen von GPU-Cloud-Computing ist generative KI/ML. GPUs eignen sich gut für Aufgaben wie Training und Inferenz mit neuronalen Netzwerken, da sie viele Berechnungen parallel durchführen können. Dies ermöglicht ein schnelleres und effizienteres Training neuer Modelle und kann so wiederum zu einer erhöhten Genauigkeit und Performance führen.

    Die NVIDIA-GPU RTX 4000 nutzt die NVIDIA Ada Lovelace-Architektur, um besonders hohe Performance bei Inferenzaufgaben zu liefern. Insgesamt 192 Tensor-Kerne der vierten Generation beschleunigen mehr Datentypen und unterstützen eine neue detaillierte, strukturierte Sparsity für bis zu viermal höheren Durchsatz bei Tensor-Matrixoperationen im Vergleich zur vorherigen Generation. Die 20 Gigabyte GDDR6-Speicher bieten hohe Kapazitäten für große Modelle und Datensätze.

  • Datenanalyse und wissenschaftliche Berechnungen
    GPU-Cloud-Computing wird aufgrund der Art seiner Aufgaben, bei denen häufig riesige Datenmengen verarbeitet werden, oft auch in der Datenanalyse und für wissenschaftliche Berechnungen eingesetzt. Diese Aufgaben sind zeitaufwändig und rechenintensiv. GPUs können sie beschleunigen, indem sie große Datenmengen parallel verarbeiten. Dies führt zu schnelleren und effizienteren Analysen und Simulationen.

  • Gaming und Rendern von Grafiken
    GPUs finden in der Gaming-Branche weitreichend Anwendung – hauptsächlich für Grafikrendering und andere Aufgaben im Zusammenhang mit der Entwicklung von Videospielen. Das liegt daran, dass GPUs für die Verarbeitung komplexer Grafiken ausgelegt sind und ein schnelles, hochwertiges Rendering von 3D-Grafiken ermöglichen.

  • High-Performance-Computing
    GPU-fähiges Cloud Computing wird häufig für Anwendungen von High-Performance-Computing wie Modellierungen und Simulationen verwendet, die eine schnelle und effiziente Verarbeitung großer Datenmengen erfordern. GPUs können auch verwendet werden, um Simulationen, Berechnungen und andere rechenintensive Aufgaben zu beschleunigen. Dies sorgt für schnellere Ergebnisse und eine bessere Performance.

„Um eine Vielzahl von Workloads zu unterstützen, benötigen Sie eine ganze Reihe von Computinginstanzen.“, ergänzt Shawn Michels. „Was wir mit branchenoptimierten GPUs erreichen, ist nur einer von vielen Schritten, um die Instanzvielfalt über das gesamte Spektrum des Computing für unsere Kunden zum Betrieb sowie zur Optimierung nativer Anwendungen zu erhöhen.“

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.