Denodo integriert NVIDIA NIM Inferenz-Microservices in seine Plattform, um die eigenen KI-Funktionen auszubauen. Dies ermöglicht Unternehmen fortschrittliche KI-Funktionen in ihre internen Datenmanagement-Arbeitsabläufe einzugliedern und gleichzeitig von optimierten und schnelleren Analysen sowie robusten KI-gestützten Erkenntnissen zu profitieren.
Von Otto Neuer, VP Regional und General Manager bei Denodo.
Künstliche Intelligenz bietet mit Machine Learning (ML) und Large Language Models (LLMs) großes Potenzial für eine Vereinfachung und Rationalisierung des Datenmanagements. Mustererkennung kann beispielsweise dabei helfen, große unstrukturierte Datenmengen zu kategorisieren. LLMs erlauben die „Interaktion“ mit Datenbeständen auf Basis natürlicher Sprache.
Allerdings stoßen Unternehmen auch schnell auf eine Vielzahl von datenbezogenen Problemen, wenn sie beginnen GenAI zu implementieren und erste Anwendungsfälle zu testen. Laut McKinsey sehen 72 Prozent der Unternehmen das Datenmanagement als eine zentrale Herausforderung bei der Skalierung von KI-Anwendungsfällen.
Damit beispielsweise KI-gestützte Personalisierung sicher und effektiv ist, müssen die zugrundeliegenden Kundendaten genau und aktuell sein, und der Datenzugriff muss nahezu in Echtzeit über mehrere unterschiedliche Datenquellen erfolgen. Eine entsprechende Aufbereitung der Quelldaten ist dafür unerlässlich.
Die logischen Datenmanagementfunktionen der Denodo-Platform in Kombination mit NVIDIA NIM ermöglichen Unternehmen:
- Daten in KI-fähige Pipelines schnell zu kuratieren und umzuwandeln, um sie in LLMs einzuspeisen
- Die Modellgenauigkeit zu verbessern und KI-Halluzinationen durch Zugriff auf vertrauenswürdige Unternehmensdaten über Retrieval Augmented Generation (RAG)-Pipelines zu vermeiden
- Den sicheren Echtzeitzugriffs auf verteiltes Unternehmenswissen für generative KI-Anwendungen zu vereinfachen
- Den Datenschutz/ die Datensicherheit zu wahren und granulare Zugriffskontrollen für KI-Modelle zu gewährleisten, die auf Unternehmensdaten zugreifen
- KI/ML-Implementierungen von der Datenvorbereitung bis zur Modellbewertung mit NVIDIA NeMo zu beschleunigen.
NVIDIA NIM ist eine Sammlung von Cloud-nativen Microservices, die die Bereitstellung generativer KI-Modelle in verschiedenen Umgebungen vereinfachen und schneller vorantreiben, darunter die Cloud, lokale Rechenzentren und Workstations. Sie verbindet die Leistung der neuesten KI-Modelle, die sicher auf der beschleunigten Infrastruktur von NVIDIA bereitgestellt werden.
Durch die Integration von NVIDIA NIM in die Denodo-Platform können Kunden fortschrittliche KI-Funktionen nahtlos in ihre Datenmanagement-Workflows einbinden. Außerdem ermöglicht sie Unternehmen, generative KI-Anwendungen mit beispielloser Geschwindigkeit und Effizienz bereitzustellen und zu skalieren.
Zu den wichtigsten Anwendungsfällen gehören verbesserte Analysen und robuste KI-gestützte Erkenntnisse in Branchen wie Finanzdienstleistungen, Gesundheitswesen, Einzelhandel und Produktion, die die Analysezeit für verschiedene Datenquellen verkürzen. Als NVIDIA Metropolis Partner arbeitet Denodo an der Implementierung von Vision AI und Vision Language Model (VLM) NIM Microservices, um industrielle Prozesse zu rationalisieren und die Sicherheit der Mitarbeiter zu erhöhen.
Wird die Datenmanagement-Plattform mit NVIDIA NeMo eingesetzt, kann die Genauigkeit der SQL-Abfragegenerierung für VLMs erheblich gesteigert werden. RAG-Funktionen ermöglichen vertrauenswürdigere Antworten, indem Modelle relevantes Wissen aus der Datenstruktur abrufen können, bevor sie eine Ausgabe generieren. Die Denodo-Platform hilft, den Datenzugriff zu vereinfachen und zu beschleunigen und gleichzeitig Fehler zu reduzieren.
Durch die Integration von NVIDIA NIM stellt Denodo sicher, dass Kunden die volle Kontrolle über ihre KI-Implementierungen behalten, egal ob On-Prem oder in der Cloud. Die Integration bietet großes Potenzial einschließlich schnellerer Wertschöpfung und verbesserter Sicherheit für KI-Anwendungen.