A medida que la inteligencia artificial (IA) alcanza los límites de los actuales modelos de lenguaje de gran escala, empresas como OpenAI están explorando nuevas técnicas de entrenamiento que imitan los procesos de pensamiento humano. Se espera que estos métodos, incorporados en el último modelo o1 de OpenAI, redefinan el panorama de la IA e influyan en la demanda de recursos, desde energía hasta tipos de chips.
Científicos, investigadores e inversores en IA han identificado que el enfoque tradicional de escalar modelos de IA mediante la adición de más datos y potencia de cómputo ha alcanzado una meseta.
Ilya Sutskever, cofundador de Safe Superintelligence (SSI) y ex ejecutivo de OpenAI, reconoció la necesidad de un cambio de estrategia, enfatizando que "escalar lo correcto importa más ahora que nunca".
Los investigadores ahora se centran en el "cómputo en tiempo de prueba", una técnica que mejora los modelos de IA durante la fase de inferencia. Este método permite que los modelos de IA procesen tareas complejas de manera más efectiva al generar y evaluar múltiples posibilidades antes de seleccionar la solución más adecuada.
Noam Brown, investigador de OpenAI, destacó la eficiencia de este enfoque, afirmando que permitir que un bot "piense" durante 20 segundos podría igualar las ganancias de rendimiento de un aumento de escala de 100.000 veces.
El modelo o1 de OpenAI, anteriormente conocido como Q* y Strawberry, utiliza esta técnica innovadora, permitiéndole resolver problemas mediante un razonamiento de múltiples pasos similar al humano. El modelo también se beneficia de datos seleccionados y retroalimentación proporcionada por doctores y expertos de la industria.
Otros laboratorios de IA, incluyendo Anthropic, xAI y DeepMind de NASDAQ:GOOGL, también están desarrollando sus versiones de esta técnica, con el objetivo de mejorar sus capacidades de IA.
El cambio hacia el cómputo en tiempo de prueba y técnicas de inferencia más eficientes podría impactar el panorama competitivo del hardware de IA. Nvidia (NASDAQ:NVDA), un proveedor líder de chips de IA, ha experimentado una alta demanda de sus productos, con su CEO Jensen Huang discutiendo la importancia de las técnicas de inferencia y la fuerte demanda de su último chip de IA, Blackwell.
Esta transición de clusters de pre-entrenamiento masivos a nubes de inferencia podría remodelar el mercado, con Sonya Huang de Sequoia Capital señalando el potencial movimiento hacia servidores distribuidos basados en la nube para la inferencia.
A medida que la industria de la IA evoluciona, empresas como OpenAI están posicionadas para mantener una ventaja competitiva al innovar continuamente y mantenerse varios pasos adelante de sus competidores.
Reuters contribuyó a este artículo.
Este artículo ha sido generado y traducido con el apoyo de AI y revisado por un editor. Para más información, consulte nuestros T&C.