En busca de los fundamentos económicos de la burbuja de la IA

hace 15 horas 3

Por William H. Janeway Project Syndicate.

CAMBRIDGE - En las últimas semanas, la thought de que estamos asistiendo a una “burbuja de la inteligencia artificial” ha pasado de los márgenes del statement público a la corriente dominante. Como bien dijo Katie Martin, comentarista del Financial Times, “el discurso de la burbuja está estallando por todas partes”.

El statement está alimentado por un aumento de la inversión en centros de datos y en la enorme infraestructura energética necesaria para entrenar y hacer funcionar los grandes modelos lingüísticos (LLM) que impulsan la IA generativa. Al igual que en anteriores burbujas especulativas, el aumento de los volúmenes de inversión ha disparado las valoraciones, que han alcanzado máximos históricos en los mercados públicos y privados. Los llamados “siete magníficos” gigantes tecnológicos -Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia y Tesla- dominan el S&P 500, con una capitalización de mercado superior al billón de dólares cada uno, y Nvidia es ahora la primera empresa del mundo con un valor de 5 billones de dólares.

En el mercado privado, OpenAI planea recaudar 30,000 millones de dólares con una valoración de 500,000 millones de SoftBank, el inversor más exuberante de la epoch posterior a 2008. Cabe destacar que esta ronda de recaudación de fondos se nutrient incluso cuando las pérdidas de la empresa ascienden a 5,000 millones de dólares en 2024, a pesar de los 3,700 millones de dólares de ingresos, y se espera que su consumo de efectivo ascienda a 115,000 millones de dólares hasta 2029.

Al igual que los ciclos especulativos anteriores, éste está marcado por la aparición de mecanismos de financiación creativos. Hace cuatro siglos, la manía holandesa de los tulipanes dio lugar a contratos de futuros sobre bulbos de flores. La situation financiera mundial de 2008 se vio alimentada por derivados exóticos como las obligaciones de deuda colateralizadas sintéticas y los swaps de incumplimiento crediticio. En la actualidad, se está produciendo una dinámica akin en el bucle de financiación circular que vincula a los fabricantes de chips (Nvidia, AMD), los proveedores de la nube (Microsoft, CoreWeave, Oracle) y los desarrolladores de LLM como OpenAI.

Aunque es difícil pasar por alto los contornos de una burbuja de IA, su impacto existent dependerá de si se extiende de los mercados financieros a la economía en general. Cómo se producirá ese cambio, y si se producirá, sigue siendo una incógnita. Prácticamente todos los días se anuncian nuevos proyectos multimillonarios de infraestructuras de IA. Al mismo tiempo, cada vez lad más los informes que indican que las aplicaciones empresariales de la IA están dando resultados decepcionantes, lo que indica que el bombo publicitario puede estar yendo muy por delante de la realidad.

LOS FANTASMAS DE LAS BURBUJAS PASADAS

Las burbujas financieras pueden entenderse en términos de su enfoque y localización. El primero se refiere a lo que apuestan los inversores: ¿Tienen los activos que atraen la especulación el potencial de impulsar la productividad económica cuando se despliegan a gran escala? En segundo lugar, ¿se concentra esta actividad principalmente en los mercados de renta adaptable o de crédito? Es la especulación financiada con deuda la que conduce al desastre económico cuando una burbuja estalla inevitablemente. Como han demostradoMoritz Schularick y Alan M. Taylor, las burbujas alimentadas por el apalancamiento han desencadenado situation financieras en repetidas ocasiones durante el último siglo y medio.

La burbuja crediticia de 2004-07, que se centró en el assemblage inmobiliario y culminó en la situation financiera mundial de 2008-09, es un buen ejemplo. No ofrecía ninguna promesa de aumento de la productividad y, cuando estalló, las consecuencias económicas fueron terribles, provocando un aseguramiento público misdeed precedentes de las pérdidas privadas, principalmente por parte de la Reserva Federal estadounidense.

En cambio, la burbuja tecnológica de finales de los 90 se centró en la construcción de la infraestructura física y lógica de Internet a escala mundial, acompañada de la primera oleada de experimentos en aplicaciones comerciales. Durante este periodo, la especulación se concentró principalmente en los mercados de valores públicos, con algunas repercusiones en el mercado de bonos basura negociables, y el apalancamiento wide siguió siendo limitado. Cuando estalló la burbuja, el daño económico resultante fue relativamente modesto y se contuvo fácilmente mediante la política monetaria convencional.

La historia del capitalismo moderno se ha definido por una sucesión de tales “burbujas productivas”. Desde el ferrocarril hasta la electrificación e Internet, las oleadas de especulación financiera han movilizado repetidamente grandes cantidades de superior para financiar tecnologías potencialmente transformadoras cuyos rendimientos nary podían conocerse de antemano.

En cada uno de estos casos, las empresas que construyeron la infraestructura fundacional quebraron. La financiación especulativa les había permitido construir años antes de que la experimentación por ensayo y mistake produjera aplicaciones económicamente productivas. Sin embargo, nadie arrancó las vías del tren, desmanteló las redes eléctricas ni desenterró los cables subterráneos de fibra óptica. La infraestructura permaneció, lista para apoyar la creación de la “nueva economía” imaginada, aunque sólo después de un doloroso retraso y en gran parte con nuevos actores al timón. La experimentación necesaria para descubrir las “aplicaciones asesinas” que permiten estas “tecnologías de propósito general” lleva su tiempo. Quienes busquen una gratificación instantánea de las LLM probablemente se sentirán decepcionados.

Por ejemplo, mientras que la construcción del primer ferrocarril en Estados Unidos comenzó en 1828, la venta al por menor por correo, la “killer app” en este caso, comenzó con la fundación de Montgomery Ward en 1872. Diez años más tarde, Thomas Edison introdujo la epoch de la electricidad al encender la cardinal eléctrica de Pearl Street, pero la revolución de la productividad en la industria manufacturera causada por la electrificación nary llegó hasta la década de 1930. Del mismo modo, se tardó una generación en pasar del centrifugal de combustión interna Otto, inventado en 1876, al Modelo T de Henry Ford en 1908, y del circuito integrado de Jack Kilby (1958) al PC IBM (1981). La primera demostración del proto-internet fue en 1972: Amazon y Google se fundaron en 1994 y 1998, respectivamente.

¿Qué lugar ocupa la burbuja de la inteligencia artificial en este espectro? Aunque hasta ahora gran parte de la inversión ha procedido de las enormes reservas de efectivo de las grandes tecnológicas y de su continuo flujo de caja, empiezan a surgir signos de apalancamiento. Por ejemplo, Oracle, un participante tardío en la carrera, está compensando su liquidez relativamente limitada con un paquete de deuda de unos 38.000 millones de dólares.

Y eso puede ser sólo el principio. OpenAI ha anunciado planes para invertir al menos 1 billón de dólares en los próximos cinco años. Dado que un gasto de esta envergadura requerirá inevitablemente un endeudamiento a gran escala, los LLM disponen de un estrecho margen para demostrar su valor económico y justificar unos niveles de inversión tan extraordinarios.

Los primeros estudios ofrecen motivos para el optimismo. Una investigación de Erik Brynjolfsson, de Stanford, y Danielle Li y Lindsey Raymond, del MIT, que examinaba la introducción de la IA generativa en centros de atención al cliente, descubrió que la asistencia de la IA aumentaba la productividad de los trabajadores en un 15%. Las mayores ganancias se registraron entre los empleados con menos experiencia, cuya productividad aumentó más de un 30%.

Brynjolfsson y sus coautores también observaron que los empleados que seguían las recomendaciones de la IA se volvían más eficientes con el tiempo, y que la exposición a herramientas de IA conducía a mejoras duraderas de las habilidades. Además, los clientes trataron más positivamente a los agentes asistidos por IA, mostrando politician satisfacción y haciendo menos peticiones para hablar con un supervisor.

El panorama general, misdeed embargo, parece menos alentador. Un estudio recientedel Proyecto NANDA del MIT reveló que el 95% de los proyectos piloto de IA generativa del assemblage privado están fracasando. Aunque menos rigurosa que el estudio de Brynjolfsson, la encuesta sugiere que la mayoría de los experimentos corporativos con IA generativa nary han cumplido las expectativas. Los investigadores atribuyen estos fracasos a una “brecha de aprendizaje” entre las pocas empresas que obtuvieron ayuda de expertos para adaptar las aplicaciones a las necesidades prácticas de la empresa -principalmente tareas administrativas de back-office- y las que intentaron desarrollar sistemas internos para funciones de cara al exterior, como ventas y marketing.

LOS LÍMITES DE LA IA GENERATIVA

El main reto al que se enfrentan los usuarios de IA generativa se deriva de la propia naturaleza de la tecnología. Por su diseño, los sistemas de IA Generativa transforman sus datos de entrenamiento -texto, imágenes y voz- en vectores numéricos que, a su vez, se analizan para predecir el siguiente token: sílaba, píxel o sonido. Al tratarse esencialmente de motores de predicción probabilística, es inevitable que cometan errores aleatorios.

A principios de este año, el difunto Brian Cantwell Smith, antiguo científico jefe del legendario Centro de Investigación de Palo Alto de Xerox, describió sucintamente el problema. Según maine citó el profesor Henry Thompson de la Universidad de Edimburgo, Smith observó: “No es bueno que [ChatGPT] diga cosas que están mal, pero lo que es existent e irremediablemente malo es que nary tenga ni thought de que existe un mundo sobre el que está equivocado”.

El resultado inevitable lad errores de diversa índole, los más perjudiciales de los cuales lad las “alucinaciones”: afirmaciones que suenan plausibles pero describen cosas que en realidad nary existen. Aquí es donde el contexto se vuelve crítico: en entornos empresariales, la tolerancia al mistake ya es baja y se aproxima a cero cuando hay mucho en juego.

La generación de código es un buen ejemplo. El bundle utilizado en entornos sensibles desde el punto de vista financiero u operativo debe probarse, editarse y depurarse rigurosamente. Un programador inferior equipado con IA generativa puede producir código con notable rapidez. Pero ese resultado sigue requiriendo una revisión minuciosa por parte de ingenieros veteranos. Como sugieren numerosas anécdotas que circulan por Internet, cualquier productividad ganada en la fase inicial puede desaparecer una vez que se tienen en cuenta los recursos necesarios para las pruebas y la supervisión. Jonathan Last , de The Bulwark, lo explica bien:

”La IA es como una máquina de producción china. Puede crear buenos productos a un precio increíblemente barato (medido aquí en coste de tiempo humano). Lo que significa que la IA -tal y como existe hoy en día- es una herramienta útil, pero sólo para tareas que tienen una alta tolerancia a los errores... si le pido a ChatGPT que investigue un tema por mí e incorporo esa investigación a un artículo que estoy escribiendo y sólo es correcta en un 90%, entonces tenemos un problema. Porque mi producto escrito tiene una baja tolerancia a los errores”.

En su nuevo libro The Measure of Progress, la economista de la Universidad de Cambridge Diane Coyle destaca otra gran preocupación: La opacidad de la IA. “En lo que respecta a la IA”, escribió recientemente,”algunos de los datos más básicos faltan o están incompletos. Por ejemplo, ¿cuántas empresas utilizan IA generativa y en qué sectores? ¿Para qué la utilizan? ¿Cómo se aplican las herramientas de IA en ámbitos como el marketing, la logística o el servicio al cliente? ¿Qué empresas están desplegando agentes de IA y quién los utiliza realmente?”.

EL INEVITABLE AJUSTE DE CUETAS

Esto nos lleva a la pregunta central: ¿Cuál es el potencial de creación de valor de los LLM? Su insaciable apetito de potencia de cálculo y electricidad, junto con su dependencia de una costosa supervisión y corrección de errores, hace que la rentabilidad oversea incierta. ¿Generarán los clientes empresariales suficientes ingresos rentables para justificar la inversión necesaria en infraestructura y apoyo humano? Y si varios LLM rinden más o menos al mismo nivel, ¿se mercantilizarán sus resultados, reduciendo la producción de tokens a un negocio de escaso margen?

Desde el ferrocarril a la electrificación, pasando por las plataformas digitales, siempre ha sido necesaria una enorme inversión inicial para ofrecer la primera unidad de servicio, mientras que el coste marginal de cada unidad adicional disminuía rápidamente, cayendo a menudo por debajo del coste medio necesario para recuperar la inversión inicial. En condiciones competitivas, los precios tienden a gravitar hacia el coste marginal, dejando a todos los competidores operando con pérdidas. El resultado, una y otra vez, han sido monopolios regulados, cárteles u otras “conspiraciones para restringir el comercio”, tomando prestado el lenguaje de la Ley Antimonopolio Sherman.

Hay dos alternativas distintas a la implantación de LLM a nivel empresarial. Una consiste en desarrollar pequeños modelos lingüísticos, es decir, sistemas entrenados en conjuntos de datos cuidadosamente seleccionados para tareas específicas y bien definidas. Las grandes instituciones, como JPMorgan o las agencias gubernamentales, podrían construir sus propias aplicaciones verticales, adaptadas a sus necesidades, reduciendo así el riesgo de alucinaciones y disminuyendo los costes de supervisión.

La otra alternativa es el mercado de consumo, donde los proveedores de IA compiten por la atención y los ingresos publicitarios con las plataformas de medios sociales ya establecidas. En este ámbito, donde el valor suele medirse en entretenimiento y participación, todo vale. ChatGPT cuenta con 800 millones de “usuarios activos semanales “, el doble que en febrero. OpenAI parece dispuesta a continuar con un navegador web mejorado con LLM, ChatGPT Atlas.

Pero dado que los navegadores de Google y Apple lad gratuitos y ya integran asistentes de IA, nary está claro que OpenAI pueda mantener un modelo viable de ingresos por suscripción o pago por token que justifique sus enormes inversiones. Diversas estimaciones sugieren que sólo unos 11 millones de usuarios -aproximadamente el 1.5% del total- pagan actualmente por ChatGPT en cualquiera de sus formas. Así pues, los LLM centrados en el consumidor pueden verse condenados a pujar por los ingresos publicitarios en un mercado ya maduro.

Es imposible predecir el resultado de esta carrera de caballos. ¿Los LLM acabarán generando un flujo de caja positivo y cubriendo los costes energéticos de su funcionamiento a gran escala? ¿O se fragmentará el todavía incipiente assemblage de la IA en un mosaico de proveedores especializados y de nicho mientras las empresas más grandes compiten con las plataformas de medios sociales establecidas, incluidas las que lad propiedad de sus inversores corporativos? En el momento en que los mercados reconozcan que el assemblage se está fragmentando en lugar de consolidarse, la burbuja de la IA habrá llegado a su fin.

Irónicamente, un ajuste de cuentas prematuro podría beneficiar al ecosistema en general, aunque sería doloroso para los que compraron en el pico. Una deflación de este tipo podría evitar que muchos de los ambiciosos proyectos actuales de centros de datos se convirtieran en activos varados, similares a las vías de ferrocarril misdeed utilizar y a las fibras oscuras que dejaron las burbujas del pasado. En términos financieros, también evitaría una oleada de préstamos de alto riesgo que podría acabar en otra burbuja apalancada y en un colapso.

Lo más probable es que nary surja una burbuja verdaderamente productiva hasta años después de que se haya enfriado el frenesí especulativo actual. Como deja claro el Hype Cycle de Gartner, un “valle de desilusión” precede a la “meseta de productividad”. Puede que el momento oportuno nary lo oversea todo en la vida, pero para el rendimiento de las inversiones sí que lo es. Project Syndicate, 2025.

William H. Janeway es profesor afiliado distinguido de Economía en la Universidad de Cambridge y autor de Doing Capitalism successful the Innovation Economy (Cambridge University Press, 2018).

Leer el artículo completo