SAN JOSÉ, California - NVIDIA (NASDAQ:NVDA) ha presentado un nuevo conjunto de microservicios de IA generativa diseñados para ayudar a las empresas a implantar aplicaciones personalizadas de forma más eficiente. Los microservicios NVIDIA NIM, que se ejecutan en la plataforma NVIDIA CUDA, permiten optimizar la inferencia en una amplia gama de modelos de IA, con el objetivo de reducir el tiempo de implantación de semanas a minutos.
El catálogo de microservicios nativos en la nube se ha creado para dar soporte a la base instalada de CUDA de NVIDIA, que incluye cientos de millones de GPU en diversas plataformas como nubes, centros de datos, estaciones de trabajo y PC. El objetivo de estos servicios es proporcionar a las empresas las herramientas necesarias para convertirse en organizaciones impulsadas por la IA al tiempo que mantienen la propiedad y el control de su propiedad intelectual.
Los microservicios de IA para empresas de NVIDIA forman parte de la oferta NVIDIA AI Enterprise 5.0 y son accesibles desde los principales servicios en la nube, como Amazon SageMaker, Google Kubernetes Engine y Microsoft Azure AI. Se integran con los marcos de trabajo de IA más populares y son compatibles con más de 400 sistemas certificados por NVIDIA de los principales proveedores de hardware.
ServiceNow es una de las primeras empresas en utilizar estos servicios para desarrollar aplicaciones de IA específicas de su dominio. Otras empresas, como Adobe, Cadence, CrowdStrike, Getty Images, SAP, ServiceNow y Shutterstock, también están accediendo a los nuevos microservicios para transformar sus datos en capacidades de IA.
Los microservicios de inferencia de NIM están basados en el software de inferencia de NVIDIA, que incluye Triton Inference Server y TensorRT-LLM, y ofrecen API estándar para diversos dominios, como el lenguaje y el descubrimiento de fármacos. Estos contenedores preconstruidos están diseñados para permitir un escalado rápido y un alto rendimiento de las aplicaciones de IA en entornos de producción.
Además, NVIDIA ha anunciado microservicios CUDA-X para tareas como la generación aumentada por recuperación (RAG), el procesamiento de datos y los guardrails, así como la computación de alto rendimiento (HPC). Estos servicios facilitan la preparación de datos, la personalización y la formación para acelerar el desarrollo de la IA en todos los sectores.
Algunos socios del ecosistema, como Box, Cloudera, Cohesity, Datastax, Dropbox y NetApp, están colaborando con NVIDIA para integrar datos propios en aplicaciones de IA generativa. Snowflake está aprovechando los microservicios NeMo Retriever para utilizar los datos de la empresa en el desarrollo de aplicaciones de IA.
Los desarrolladores pueden experimentar con los microservicios de NVIDIA de forma gratuita a través de ai.nvidia.com. Para la implantación en producción, las empresas pueden utilizar NVIDIA AI Enterprise 5.0 en sistemas certificados por NVIDIA y en las principales plataformas en la nube.
Este anuncio se basa en un comunicado de prensa de NVIDIA.
Este artículo ha sido generado y traducido con el apoyo de AI y revisado por un editor. Para más información, consulte nuestros T&C.