SAN JOSE, Californie - NVIDIA a présenté une nouvelle suite de microservices d'IA générative conçus pour aider les entreprises à déployer des applications personnalisées plus efficacement. Les microservices NVIDIA NIM, fonctionnant sur la plate-forme NVIDIA CUDA, permettent d'optimiser l'inférence sur une large gamme de modèles d'IA, dans le but de réduire les temps de déploiement de plusieurs semaines à quelques minutes.
Le catalogue de microservices natifs du cloud est conçu pour prendre en charge la base installée CUDA de NVIDIA, qui comprend des centaines de millions de GPU sur diverses plates-formes telles que les clouds, les centres de données, les stations de travail et les PC. Ces services sont destinés à fournir aux entreprises les outils nécessaires pour devenir des organisations axées sur l'IA tout en conservant la propriété et le contrôle de leur propriété intellectuelle.
Les microservices d'IA de niveau entreprise de NVIDIA font partie de l'offre NVIDIA AI Enterprise 5.0 et sont accessibles à partir des principaux services cloud comme Amazon SageMaker, Google Kubernetes Engine et Microsoft Azure AI. Ils s'intègrent aux principaux frameworks d'IA et sont pris en charge par plus de 400 systèmes certifiés NVIDIA des principaux fournisseurs de matériel.
ServiceNow est l'un des premiers à utiliser ces services pour développer des applications d'IA spécifiques à un domaine. D'autres entreprises, comme Adobe, Cadence, CrowdStrike, Getty Images, SAP, ServiceNow et Shutterstock, accèdent également aux nouveaux microservices pour transformer leurs données en capacités d'IA.
Les microservices d'inférence NIM sont basés sur le logiciel d'inférence de NVIDIA, notamment Triton Inference Server et TensorRT-LLM, et proposent des API standard pour divers domaines tels que le langage et la découverte de médicaments. Ces conteneurs préconstruits sont conçus pour permettre une mise à l'échelle rapide et des performances élevées pour les applications d'IA dans les environnements de production.
De plus, NVIDIA a annoncé des microservices CUDA-X pour des tâches telles que la récupération et la génération augmentée (RAG), le traitement des données et les garde-fous, ainsi que le calcul de haute performance (HPC). Ces services facilitent la préparation des données, la personnalisation et la formation afin d'accélérer le développement de l'IA dans tous les secteurs.
Les partenaires de l'écosystème, dont Box, Cloudera, Cohesity, Datastax, Dropbox et NetApp, collaborent avec NVIDIA pour intégrer des données propriétaires dans des applications d'IA générative. Snowflake s'appuie sur les microservices de NeMo Retriever pour utiliser les données d'entreprise dans le développement d'applications d'IA.
Les développeurs peuvent expérimenter gratuitement les microservices de NVIDIA sur ai.nvidia.com. Pour le déploiement en production, les entreprises peuvent utiliser NVIDIA AI Enterprise 5.0 sur les systèmes certifiés par NVIDIA et les principales plates-formes cloud.
Cette annonce est basée sur un communiqué de presse de NVIDIA.
Cet article a été généré et traduit avec l'aide de l'IA et revu par un rédacteur. Pour plus d'informations, consultez nos T&C.