Se acerca la edad del razonamiento de la IA
| Por Cecilia Prieto | 0 Comentarios

En el momento de su lanzamiento, hace poco más de dos años, dijimos que la plataforma de inteligencia artificial (IA) de OpenAI, ChatGPT, podría revelarse la innovación tecnológica más importante en generaciones. Los avances posteriores en IA no han hecho sino reforzar esta opinión. En cambio, otro avance más reciente que consideramos igualmente revolucionario ha captado una menor atención: los modelos de IA que comienzan a exhibir razonamiento.
Dado el rápido ritmo de innovación – y nuestras expectativas para 2025, que podría ser un año crucial – este nos parece un momento oportuno para presentar información actualizada sobre la IA y cómo podría cambiar radicalmente la forma en que interactuamos con la tecnología y transformar la economía mundial.
Una mirada retrospectiva
Hemos llegado muy lejos, muy rápido. ChatGPT se adoptó rápidamente como una plataforma horizontal que podía alterar la utilidad de la tecnología. Los casos de uso han empezado a madurar en todas las funciones, desde la atención al cliente y la creación de contenidos hasta la codificación y el marketing. Sin limitarse a los servicios, la IA también se está implantando en la biología y las ciencias de la vida. Otros modelos fundacionales se han unido a ChatGPT, como Claude, Gemini de Google, Llama y Mistral. Estas plataformas han competido durante la fase de formación de la IA, y hasta ahora se han mantenido las leyes de escalado, es decir, la función de las entradas de datos y la capacidad de computación que producen resultados magnificados.
Adentrándonos en la «inferencia en tiempo de prueba»
Tras una intensa fase de entrenamiento, muchos modelos de IA están a punto de pasar a su fase de inferencia más operativa. Esto ha resultado más interesante de lo esperado. El objetivo último es que estos modelos con el tiempo logren alcanzar la inteligencia artificial general (IAG). A finales de 2024, se dio un paso adelante en esta misión con el lanzamiento de la plataforma Strawberry de OpenAI, que combina el razonamiento y la memoria con grandes modelos de lenguaje (LLM).
¿Qué significa esto? En lugar de interpretar datos y predecir el «siguiente paso», los modelos de IA analizan los problemas de forma iterativa para identificar la mejor solución o el mejor camino a seguir. Los modelos ahora pueden aprender de cada iteración, y cada paso adicional produce datos a los que se puede hacer referencia en usos futuros, lo que debería conducir a una precisión exponencialmente mayor. Este avance se denomina inferencia en tiempo de prueba y, a nuestro juicio, será especialmente útil para funciones altamente complejas como matemáticas, física, codificación y otras aplicaciones donde se prioriza la mejor respuesta sobre la más rápida.
La inferencia en tiempo de prueba es similar a un programa informático desarrollado por DeepMind, de Alphabet, para ejecutar juegos de mesa. A diferencia de otros programas, AlphaGo de DeepMind no estaba precargado con información; solo podía aprender iterativamente a través de los juegos y en seguida era capaz de ganar a los humanos.
Un ejemplo de un entorno profesional es una startup de IA que pretendía aplicar la tecnología para ejecutar trabajo de asistente jurídico. Avanzó rápidamente a tareas propias de un letrado en prácticas y se puede suponer que un socio de IA no estará muy lejos. En el ámbito académico, los proyectos de investigación que antes reunían a unos pocos investigadores titulados ahora pueden desplegar docenas de bots de IA.
Estos avances en el razonamiento han cambiado las reglas del juego. Inicialmente, la expectativa era que las leyes del escalado disminuirían a medida que madurara la fase de entrenamiento de la IA. En su lugar, ha surgido un nuevo conjunto de leyes del escalado, debido en parte a los datos producidos dentro de la inferencia en tiempo de prueba. Siguiendo con el ejemplo académico, en los últimos dos años, las plataformas de IA han evolucionado de estudiantes de secundaria a estudiantes universitarios y ahora ofrecen resultados comparable al trabajo de un doctorado. La rapidez con que se ha logrado esto nos ha permitido, por primera vez, entrever qué se necesitará para alcanzar la IAG – un avance que podría ocurrir en los próximos tres años.
¿Una carrera de locos?
Hasta ahora, el despliegue de la IA ha sido relativamente ordenado. Los avances recientes pueden cambiar eso. En lugar de recortar el gasto de capital al culminar la fase de entrenamiento, los niveles de inversión podrían mantenerse para ayudar a las plataformas de IA en sus esfuerzos por ganar suficiente capacidad informática para operar la inferencia en tiempo de prueba.
Esta fase requiere que las plataformas estén más cerca del cliente, por lo que ya se está financiando a la próxima generación de innovadores en IA para avanzar sobre estas bases. Conscientes de la magnitud de la oportunidad, las firmas de software están tratando de integrar la IA en los productos que venden y las empresas de servicios están explorando activamente formas de aprovechar la IA para hacer crecer sus negocios y mejorar la eficiencia. La fase de pruebas ha terminado y ha llegado el momento de recoger y monetizar resultados.
Convertirse en la norma
Aún cabe la posibilidad de que, a medida que madura la fase de entrenamiento de la IA, las leyes del escalado puedan arrojar rentabilidades decrecientes, lo que reduciría la demanda de infraestructuras intensivas en gasto de capital o capex.
El escenario más probable es que aparezcan y se asienten nuevas leyes del escalado, las cuales, a nuestro juicio, ayudarán a mantener alta la inversión relacionada con la IA. Este argumento se ve reforzado por la oportunidad que ofrece la IA de expandirse desde el mercado de software de 650.000 millones de dólares, a un sector de servicios valorado en varios billones de dólares. La demanda de potencia informática debería seguir viéndose impulsada conforme la IA incorpore más inputs ambientales y multimodales, como voz e imágenes.
Dado el potencial de creciente visibilidad de la IA, los actores económicos que operan fuera del sector servicios y el campo de la investigación están empezando a reclamar su parte del pastel. Los gobiernos están desarrollando una «IA soberana» para proteger datos, aumentar la rentabilidad económica y mantener un cierto grado de independencia tecnológica. Dentro de la industria, las empresas están tratando de aplicar la IA para optimizar procesos de fabricación, diseñar fábricas e integrar bots que mejoren la eficiencia en todas las operaciones.
Perspectiva del inversor
Dado que es probable que la intensidad computacional aumente al desplegarse la inferencia en tiempo de prueba, los impresionantes niveles de inversión de los hiperescaladores vistos recientemente podrían mantenerse durante los próximos dos años. Esto favorecerá a los productores de unidades de procesamiento gráfico (GPU), circuitos integrados de aplicaciones específicas (ASIC), al igual que a otros segmentos integrantes de la infraestructura de IA. La implantación de la próxima generación de GPU – considerablemente más potentes – no hará sino reforzar esta tendencia.
Dentro del software, el paso del entrenamiento de la IA al razonamiento debería beneficiar a las firmas de software tanto de infraestructuras como de aplicaciones. Estas últimas podrían registrar una mayor demanda al recurrir cada vez más proveedores a la IA para ofrecer soluciones para procesos y flujos de trabajo empresariales de alto valor añadido. También es probable que las empresas de Internet se vean favorecidas, dada su propiedad de los LLM y presencia global.
Fuera del sector tecnológico, el abastecimiento energético es una cuestión que requiere atención, dada la intensidad energética de las plataformas de IA. Los hiperescaladores están barajando múltiples soluciones para evitar cuellos de botella energéticos, como desplegar fuentes de energía específicas in situ, reubicarse cerca de centrales nucleares y estudiar la viabilidad de reactores nucleares de módulos pequeños y pilas de combustible.
La IA viene acaparando la atención de los inversores desde el lanzamiento del ChatGPT. Las primeras iteraciones podían parecer tanto sofisticadas como rudimentarias, arrojando a veces resultados dudosos, si no ridículos. Una intensa fase de entrenamiento ha perfeccionado a estos modelos, y la irrupción del razonamiento podría redundar en capacidades que hasta hace apenas unos meses se consideraban meramente teóricas.
La velocidad a la que esto está ocurriendo significa que hay pocos segmentos de la economía mundial y de los mercados financieros que no vayan a sentir el impacto del despliegue de la IA. Si bien es de naturaleza secular, nos parece razonable que los inversores prevean que la temática de la IA se traduzca en monetización a corto y medio plazo.
Tribuna de Denny Fish, gestor de carteras de Janus Henderson