ARMONK, Nueva York - IBM (NYSE:IBM) ha ampliado su oferta de inteligencia artificial con la integración del modelo de lenguaje de gran tamaño (LLM) Mixtral-8x7B en su plataforma de IA y datos watsonx. Este modelo, desarrollado por Mistral AI y ahora optimizado por IBM, reduce potencialmente la latencia en un 35-75%, dependiendo del tamaño del lote, y aumenta el rendimiento del procesamiento de datos en un 50% en comparación con la versión estándar.
La mejora del rendimiento se atribuye a la cuantización, un proceso que disminuye el tamaño del modelo y los requisitos de memoria, lo que puede acelerar la velocidad de procesamiento. Se espera que esta mejora reduzca los costes y el consumo de energía de las empresas que utilicen el modelo.
La integración de Mixtral-8x7B por parte de IBM subraya su compromiso de ofrecer una gama diversa de modelos de IA, incluidos los desarrollados internamente, por terceros y las opciones de código abierto. La estrategia multimodelo de la compañía tiene como objetivo satisfacer las distintas necesidades de los clientes, ofreciéndoles la flexibilidad necesaria para escalar las soluciones de IA a través de diferentes funciones empresariales.
Mixtral-8x7B utiliza el modelado Sparse y la técnica Mixture-of-Experts para procesar y analizar grandes conjuntos de datos de forma eficiente, proporcionando información relevante en función del contexto. Este modelo forma parte de una iniciativa más amplia de IBM para proporcionar modelos básicos listos para la empresa que permitan a los clientes aprovechar la IA generativa para la innovación y la mejora de los resultados empresariales.
Kareem Yusuf, Vicepresidente Senior de Gestión de Producto y Crecimiento de IBM Software, destacó la importancia de la elección y la flexibilidad para los clientes que despliegan modelos de IA adaptados a sus necesidades empresariales específicas. La plataforma watsonx está diseñada para dar soporte a un sólido ecosistema de desarrolladores de IA y líderes empresariales de diversos sectores.
Además, esta semana IBM anunció la disponibilidad de ELYZA-japanese-Llama-2-7b, un modelo LLM japonés de ELYZA Corporation, en watsonx. La plataforma también alberga los modelos de código abierto de Meta y otros modelos de terceros, y se espera que se añadan más en los próximos meses.
La información de este artículo se basa en un comunicado de prensa.
Este artículo ha sido generado y traducido con el apoyo de AI y revisado por un editor. Para más información, consulte nuestros T&C.