NAI ist dazu konzipiert, die Bereitstellung von generativer KI in den Unternehmen schneller voranzubringen, und vereinfacht zu diesem Zweck die Art und Weise, wie Kunden Modelle und Inferencing-Dienste am Edge, im Rechenzentrum oder in der Public Cloud auf von der Cloud Native Computing Foundation® (CNCF) zertifizierten Kubernetes®-Umgebungen erstellen, betreiben und sicher managen.
Das neueste NAI-Release erweitert die gemeinsame Model-Service-Methodologie, die Agentic-Workflows vereinfacht und dabei hilft, deren Bereitstellung und laufenden Betrieb einfacher zu gestalten. Mithilfe gemeinsamer Embedding-, Reranking- und Guardrail-Funktionsmodelle für Agenten optimiert das Release die Ressourcen und Modelle, die für die geschäftsbereichsübergreifende Bereitstellung multipler Anwendungen erforderlich sind. Die neue Version baut auf dem NAI-Kern auf, der ein zentrales Repository für LLM-Modelle enthält. Damit lassen sich sichere Endpunkte erstellen, welche die Anbindung generativer KI-Anwendungen und -Agenten vereinfachen und schützen.
„Nutanix hilft Kunden dabei, mit der hohen Innovationsrate im GenAI-Markt Schritt zu halten“, erklärt Thomas Cornely, Senior Vice President of Product Management bei Nutanix. „Wir haben Nutanix Enterprise AI erweitert, um neue NVIDIA NIM- und NeMo-Microservices zu integrieren. Dadurch können Unternehmenskunden KI-Agenten umgebungsunabhängig sowie sicher und effizient erstellen, betreiben und managen.“
„Unternehmen benötigen ausgefeilte Werkzeuge, um Entwicklung und Bereitstellung von Agentic AI in ihren Betriebsabläufen zu vereinfachen", so Justin Boitano, Vice President of Enterprise AI Software Products bei NVIDIA. „Die Integration der NVIDIA AI Enterprise-Software einschließlich NVIDIA NIM-Microservices und NVIDIA NeMo mit Nutanix Enterprise AI bietet eine optimierte Basis für Erstellung und Betrieb leistungsstarker und sicherer KI-Agenten.“
NAI für Agentic-Anwendungen unterstützt Kunden bei:
- der Bereitstellung von Agentic-AI-Anwendungen mit Shared-LLM-Endpunkten – Kunden können bereits bestehende und bereitgestellte Modell-Endpunkte als Shared Services für multiple Anwendungen wiederverwenden. Durch die Wiederverwendung von Modell-Endpunkten lässt sich der Bedarf an notwendigen Infrastrukturkomponenten reduzieren. Dazu zählen GPUs, CPUs, Arbeitsspeicher, Datei- und Objektspeicher sowie Kubernetes®-Cluster.
- der Nutzung einer großen Bandbreite an LLM-Endpunkten – NAI ermöglicht ein großes Spektrum an Agentic-Model-Services einschließlich der Open-Reasoning-Modelle NVIDIA Llama Nemotron, NVIDIA NeMo Retriever und NeMo Guardrails. NAI-Anwender können NVIDIA AI-Blueprints nutzen. Dabei handelt es sich um vorkonfigurierte und anpassbare Workflows, mit deren Hilfe Kunden unmittelbar mit der Entwicklung ihrer eigenen KI-Anwendungen auf der Basis von NVIDIA-Modellen und KI-Microservices loslegen können. Zudem ermöglicht NAI Funktionsaufrufe für Konfiguration und Nutzung externer Datenquellen, damit Agentic-AI-Anwendungen exaktere und detailliertere Ergebnisse liefern können.
- der Absicherung von generativer KI – Mithilfe der neuen NAI-Version können Kunden Guardrail-Modelle nutzen und dadurch Agentic-Anwendungen unter Einhaltung der in ihren Unternehmen geltenden Regeln implementieren. Diese Modelle sind in der Lage, ab der ersten Interaktion User-Eingaben und LLM-Antworten zu filtern und dadurch vorurteilsbehaftete oder schädliche Ausgaben zu verhindern. Außerdem ermöglichen sie, die Kontrolle über Themen zu behalten und Jailbreak-Versuche zu entdecken. NVIDIA NeMo Guardrails zum Beispiel sind LLM-Modelle für Inhaltsfilterung und erlauben es, unerwünschte Inhalte und andere sensible Themen auszusortieren. Sie lassen sich zudem auf den Bereich Code-Generierung anwenden und ermöglichen dadurch modellübergreifend eine höhere Zuverlässigkeit und Konsistenz.
- der Gewinnung von Erkenntnissen mithilfe der NVIDIA AI Data Platform – Die Nutanix Cloud Platform baut auf der Referenzarchitektur der NVIDIA AI Data Platform auf und integriert Nutanix Unified Storage und Nutanix Database Service für strukturierte und unstrukturierte Daten zur Nutzung durch KI. Die Plattform Nutanix Cloud Infrastructure liefert eine unternehmensinterne Basis für NVIDIAs Accelerated Computing-, Networking- und KI-Software, um aus Daten verwertbare Erkenntnisse zu gewinnen. Als NVIDIA-zertifizierte Enterprise-Storage-Lösung erfüllt Nutanix Unified Storage strikte Leistungs- und Skalierbarkeitsstandard. Mittels Fähigkeiten wie NVIDIA GPUDirect Storage bietet Nutanix Unified Storage Unternehmen Software-definierten Enterprise-Storage für KI-Workloads.
„Kunden können das volle Potenzial generativer KI erschließen, ohne Abstriche bei der Kontrolle machen zu müssen. Das ist insbesondere für Unternehmen wichtig, die ihre Agentic-Fähigkeiten ausbauen wollen“, erklärt Scott Sinclair, Practice Director, ESG. „Die erweiterte Partnerschaft mit NVIDIA stellt Unternehmen eine optimierte Lösung für Agentic AI zu Verfügung. Damit lässt sich das Risiko beim Management komplexer Workflows minimieren und gleichzeitig deren Bereitstellung durch die Erstellung sicherer Endpunkte für APIs absichern. KI-Initiativen sollen strategische Vorteile verschaffen. Doch diese Vorteile können sich ohne eine optimierte Infrastrukturkontrolle und -sicherheit nicht einstellen.“
Weitere Informationen zur neuesten NAI-Version und ihren neuen NVIDIA-Fähigkeiten sind auf dem Nutanix-Blog erhältlich.
NAI mit Agentic-Model-Unterstützung ist ab sofort allgemein erhältlich.