Red Hat gibt die allgemeine Verfügbarkeit von Red Hat Enterprise Linux (RHEL) AI in der Hybrid Cloud bekannt. RHEL AI ist die grundlegende Modellplattform von Red Hat, mit der Anwender generative KI-Modelle zur Unterstützung von Unternehmensanwendungen nahtlos entwickeln, testen und einsetzen können. Die Plattform kombiniert die Open-Source-lizenzierte Granite-Large-Language-Model (LLM)-Familie und die InstructLab-Modell-Alignment-Tools.
Die generative KI verspricht viele Vorteile, aber die damit verbundenen Kosten für die Beschaffung, das Training und die Feinabstimmung von LLMs können astronomisch sein. Bei einigen führenden Modellen können bis zur Markteinführung Kosten von fast 200 Millionen US-Dollar für das Training anfallen.
Darin nicht enthalten sind die Kosten für die Anpassung an die spezifischen Anforderungen oder Daten eines Unternehmens, wofür in der Regel Data Scientists oder hochspezialisierte Entwickler erforderlich sind. Unabhängig davon, welches Modell für eine bestimmte Anwendung ausgewählt wird, ist eine Adaption an die unternehmensspezifischen Daten und Prozesse unverzichtbar. Nur so kann KI Effizienz und Agilität in realen Produktionsumgebungen bieten.
Red Hat geht davon aus, dass in den nächsten zehn Jahren kleinere, effizientere und anforderungsspezifische KI-Modelle neben Cloud-nativen Anwendungen einen wesentlichen Teil des IT-Stacks von Unternehmen ausmachen werden. Um dies zu erreichen, muss die generative KI jedoch leichter zugänglich und verfügbar sein – von den Kosten über die Mitwirkenden bis hin zur Möglichkeit, sie in der Hybrid Cloud einzusetzen.
Jahrzehntelang haben Open-Source-Communities geholfen, ähnliche Herausforderungen bei komplexen Softwareproblemen durch Beiträge verschiedener Nutzergruppen zu bewältigen; ein vergleichbarer Ansatz kann nun die Hürden für eine effektive Einführung der generativen KI überwinden.
Ein Open-Source-Ansatz für die generative KI
Mit RHEL AI wird die generative KI für IT-Organisationen über die Hybrid Cloud hinweg zugänglicher, effizienter und flexibler. Unter anderem unterstützt RHEL AI bei:
- der Förderung von Innovationen der generativen KI mit unternehmenstauglichen Open-Source-lizenzierten Granite-Modellen, die auf eine Vielzahl von Anwendungsfällen der generativen KI abgestimmt sind.
- der Anpassung von Modellen der generativen KI an betriebliche Anforderungen mit dem InstructLab-Tooling, das es Domain-Experten und Entwicklern innerhalb einer Organisation ermöglicht, auch ohne umfassende Data-Science-Kenntnisse ihre Modelle mit individuellen Fähigkeiten und Kenntnissen anzureichern.
- dem Training und der Bereitstellung der generativen KI über die Hybrid Cloud hinweg, indem alle Tools zur Verfügung gestellt werden, die für das Tuning und das Deployment von Modellen für Produktionsserver erforderlich sind, unabhängig davon, wo die zugehörigen Daten gespeichert sind. RHEL AI bietet außerdem einen sofortigen Einstieg in Red Hat OpenShift AI, um die Modelle in großem Umfang mit denselben Tools und Konzepten zu trainieren, zu tunen und bereitzustellen.
Bei RHEL AI kommen zudem die Vorteile einer Red Hat Subscription zum Tragen, die eine vertrauenswürdige Produktdistribution für Unternehmen, einen 24x7-Support, einen erweiterten Support für den Lebenszyklus des Modells und den rechtlichen Schutz durch Open Source Assurance umfasst.
RHEL AI als Erweiterung der Hybrid Cloud
Die Bereitstellung einer konsistenten Basismodellplattform, die näher an den Daten eines Unternehmens liegt, ist für die Unterstützung von KI-Strategien im Produktivbetrieb entscheidend. Als Erweiterung des Hybrid-Cloud-Portfolios von Red Hat wird RHEL AI nahezu jede mögliche Unternehmensumgebung abdecken, von On-Premise-Rechenzentren über Edge-Umgebungen bis hin zur Public Cloud.
Folglich wird RHEL AI direkt von Red Hat, von OEM (Original Equipment Manufacturer)-Partnern von Red Hat und bei den weltweit größten Cloud-Anbietern, einschließlich Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud und Microsoft Azure, verfügbar sein. Dies ermöglicht es Entwicklern und IT-Organisationen, die Leistung von Hyperscaler-Rechenressourcen zu nutzen, um mit RHEL AI innovative KI-Konzepte zu entwickeln.
Verfügbarkeit
RHEL AI ist ab sofort allgemein verfügbar: zum einen über das Red Hat Customer Portal für die On-Premises-Nutzung und zum anderen als BYOS (Bring Your Own Subscription)-Angebot auf AWS und IBM Cloud. Die Verfügbarkeit eines BYOS-Angebots auf Azure und GCP ist für das vierte Quartal 2024 geplant und RHEL AI wird voraussichtlich noch in diesem Jahr auch auf IBM Cloud as a Service erhältlich sein.