En el año 2023, el uso de la tecnología de inteligencia artificial (IA) experimentó un aumento significativo, a medida que el entusiasmo por sus avanzadas capacidades generativas alcanzaba nuevos niveles.
Con esta rápida expansión, quienes trabajan con IA empezaron a encontrarse con varios retos, en particular el problema conocido como "alucinación", en el que los modelos de IA producen respuestas incorrectas o inventadas, lo que dificultó su mayor aceptación.
Sin embargo, las empresas que crean estos modelos no han tardado en tomar medidas. Descubrieron que una estrategia eficaz para combatir la alucinación es dotar a los modelos de "contexto". Este contexto suele obtenerse a partir de datos convertidos en vectores y se utiliza durante la fase de Retrieval Augmented Generation (RAG), como han detallado los analistas de JPMorgan en su última sesión informativa para clientes.
"La Retrieval Augmented Generation (RAG) ha demostrado ser un componente crítico para mejorar las capacidades de los Large Language Models (LLM) al ofrecer el contexto necesario para que el modelo lo aplique. Este método reduce en gran medida la alucinación y garantiza que las respuestas del modelo sean pertinentes a la pregunta formulada, utilizando datos actuales o exclusivos que no se incluyeron en el entrenamiento inicial", afirman los analistas.
Los analistas también han observado que incluso OpenAI sugiere el uso de modelos más pequeños y rápidos, como "textembedding-003", que reduce el coste de los modelos de incrustación en un 95%.
Este método consiste en transformar y comprimir grandes volúmenes de texto para facilitar su exploración y organización en bases de datos diseñadas para aplicaciones de IA como la respuesta a preguntas, la búsqueda y el análisis de datos.
"Por ejemplo, este proyecto de Microsoft (NASDAQ:MSFT) muestra la aplicación de incrustaciones de palabras de LLM con Azure Cognitive Search para desarrollar funcionalidades de búsqueda que comprendan las conexiones entre los términos de una solicitud de búsqueda y los elementos de un catálogo", señalan los analistas.
Al mismo tiempo, otras empresas tecnológicas punteras han ido avanzando en sus iniciativas de IA.
Google (NASDAQ:GOOGL), por ejemplo, cambió el nombre de Bard por el de Gemini e introdujo el modelo Ultra 1.0, que ya está disponible por una cuota mensual de 20 dólares para los usuarios de aplicaciones multimodales.
Anthropic también ha actualizado su oferta con el lanzamiento de Claue 2.1, que presume de mayor precisión, menor alucinación, mayor comprensión del contexto y mejor relación coste-eficacia.
Además, Apple (NASDAQ:AAPL) ha entrado en la competición lanzando los modelos 4M y Ferret, que superan en rendimiento a ChatGPT-Vision gracias a sus capacidades de aprendizaje en contexto.
Este artículo ha sido producido y traducido con la ayuda de AI y ha sido examinado por un editor. Para más información, consulta nuestros Términos y condiciones.