Un análisis sobre si la explosión de inversión en inteligencia artificial tiene la estructura de una burbuja: financiación de riesgo, deuda, desigualdad y efectos sobre el empleo y la información.
A lo largo de este análisis se emplean varios términos económicos y financieros que conviene aclarar:
En los últimos cinco años, la inversión en infraestructura de IA ha crecido casi de forma exponencial tras la irrupción exitosa de modelos como ChatGPT. En 2018, OpenAI lanzó GPT-1 y, en 2025, ya convivimos con GPT-4 y GPT-4o, capaces de analizar datos, programar y generar contenido complejo. OpenAI no ha sido la única: ninguna gran empresa tecnológica ha querido quedarse atrás.
Si miramos las cifras de inversión en IA generativa, el salto es evidente. El FCRG en este campo pasó de unos 21–24 mil millones de dólares en 2023 a 44–45 mil millones en 2024. Solo en el primer trimestre de 2025 se superaron los 49,2 mil millones de dólares. Esta concentración de recursos es comparable, en magnitud, a otras burbujas tecnológicas pasadas, aunque aún es pronto para afirmar que la burbuja ha estallado.
Varios indicadores apuntan a un escenario preocupante:
Esta concentración implica que el futuro de la infraestructura digital y del empleo ligado a la IA depende de un pequeño número de actores privados, fuertemente interconectados y expuestos a las mismas expectativas de crecimiento.
Las valoraciones de algunas compañías de IA generativa y de las empresas que las sostienen rozan registros históricos. OpenAI ha alcanzado valoraciones cercanas a los 500 mil millones de dólares, mientras que Anthropic ha superado los 180 mil millones. Estas cifras se apoyan más en hipótesis de crecimiento futuro que en beneficios presentes.
En paralelo, empresas de hardware clave como NVIDIA se han disparado en bolsa. En agosto de 2025 su valor de mercado superó los 4,4 billones de dólares, impulsada por la demanda de GPUs para entrenar y ejecutar modelos de IA. Su ratio P/E llegó a 234 en julio de 2023, para luego caer a cifras más moderadas en 2025, lo que revela un periodo de expectativas extremadamente infladas.
Otras compañías como Palantir u Oracle también han tocado máximos históricos gracias a contratos ligados a IA. El “top 10” del S&P, dominado por grandes tecnológicas, cotiza a múltiplos de beneficio muy superiores al resto del índice, lo que ha reavivado las comparaciones con la burbuja .com.
Aunque muchas grandes tecnológicas mantienen buenos flujos de caja y un endeudamiento formalmente contenido, la infraestructura que sostiene la IA generativa se financia en gran parte con deuda.
NVIDIA vende GPUs a empresas de cloud AI como CoreWeave o Lambda, que a su vez dependen de préstamos de bancos de inversión como Goldman Sachs, JPMorgan o Blackstone. Los centros de datos se estructuran mediante vehículos financieros como CMBS, apostando a ingresos futuros que todavía no están garantizados.
El riesgo sistémico no reside tanto en la deuda pública como en el apalancamiento de activos digitales altamente volátiles. El patrón recuerda, en cierta medida, a los mecanismos previos a 2008: activos sobrevalorados, empaquetados en instrumentos complejos y colocados en manos de inversores que a menudo no comprenden del todo su riesgo real.
A diferencia de los escenarios más catastrofistas, todavía no hay evidencia de un colapso masivo del empleo causado directamente por la IA generativa. Estudios como los de Yale/Brookings apuntan a que, tras varios años de ChatGPT, no se ha producido un “shock” estructural en el empleo global.
Sin embargo, el impacto es desigual: sectores como la programación, el periodismo, el servicio al cliente o la producción de contenidos se están viendo presionados. La automatización tiende a desplazar tareas rutinarias que realizaban principalmente trabajadores jóvenes o junior, mientras que los perfiles senior ven reforzada su posición.
Un estudio de Stanford señala que la tasa de empleo de jóvenes de entre 22 y 25 años en estos sectores cayó alrededor de un 16 % tras la expansión de la IA generativa, mientras que las personas más experimentadas han mantenido o mejorado su empleabilidad.
Otro dato preocupante es la baja tasa de proyectos de IA que generan valor real. Investigaciones del MIT estiman que solo alrededor del 5 % de los pilotos de IA producen mejoras medibles; el 95 % restante no logra resultados significativos. Esto ha dado lugar al fenómeno del workslop: trabajo generado por IA que requiere una revisión intensiva por parte de expertos humanos, desplazando la productividad prometida hacia tareas de supervisión y corrección.
Otro efecto menos visible de la explosión de la IA es el desplazamiento del tráfico en internet. Muchos usuarios han dejado de buscar información en navegadores y han pasado a preguntar directamente a sistemas como ChatGPT, Claude o Gemini. Esto reduce la cantidad de visitas a páginas de noticias, foros y comunidades técnicas como StackOverflow o Reddit.
Paradójicamente, estas mismas páginas son la fuente de buena parte del conocimiento que alimenta a las IAs. Los modelos recogen y reutilizan contenido sin que siempre quede claro el consentimiento, la atribución o la retribución. Si a esto le sumamos el hecho de que las propias IAs empiezan a entrenarse con contenido generado por otras IAs, corremos el riesgo de entrar en un bucle en el que el origen de la información se vuelve difuso y la calidad se degrada.
Con la sobreabundancia de datos, redes sociales de consumo rápido y modelos que sintetizan contenido sin mostrar fuentes, nos adentramos en una fase de desinformación estructural. La transparencia y la trazabilidad del conocimiento se vuelven más difíciles justo cuando más falta hacen.
No vivimos todavía una crisis idéntica a la de 2008, pero sí una aceleración especulativa que comparte varios de sus ingredientes: deuda apalancada sobre activos de futuro incierto, concentración extrema de poder económico y una brecha creciente entre expectativas y resultados reales.
La IA generativa ha abierto posibilidades enormes, pero también ha generado un relato casi mesiánico sobre su capacidad para resolver todos los problemas económicos y sociales. Cuando demasiadas cosas —desde el precio de las acciones hasta la planificación de infraestructuras— se apoyan en promesas y no en beneficios tangibles, el riesgo de corrección violenta aumenta.
La pregunta clave no es solo si estamos en una burbuja, sino quién asumirá las pérdidas si estalla: ¿los grandes fondos y empresas que han captado la mayor parte de los beneficios, o las personas trabajadoras, los servicios públicos y los países que han quedado relegados a la periferia de esta nueva economía de la IA?
Throughout this analysis several economic and financial concepts are used:
Over the last five years, investment in AI infrastructure has grown almost exponentially following the successful emergence of models such as ChatGPT. In 2018 OpenAI released GPT-1 and by 2025 we already live with GPT-4 and GPT-4o, capable of analysing data, writing code and generating complex content. OpenAI has not been alone; no major tech company has wanted to be left behind.
When we look at the figures for investment in generative AI, the jump is striking. Global VC funding in the field rose from around 21–24 billion dollars in 2023 to 44–45 billion in 2024. In the first quarter of 2025 alone it exceeded 49.2 billion. This concentration of resources is comparable, in magnitude, to previous technology bubbles, even if it is still early to say that the bubble has actually burst.
Several indicators point to a potentially unstable scenario:
This concentration means that the future of digital infrastructure and AI–related employment depends on a small number of private actors, tightly connected and exposed to the same growth narratives.
The valuations of some generative AI companies – and of the firms that support them – are reaching historical highs. OpenAI has approached a valuation of 500 billion dollars, while Anthropic has surpassed 180 billion. These prices are based far more on assumptions about future growth than on current profits.
At the same time, hardware companies such as NVIDIA have soared in the stock market. In August 2025 its market value exceeded 4.4 trillion dollars, driven by demand for GPUs to train and run AI models. Its P/E ratio peaked at 234 in July 2023 before dropping to more moderate levels in 2025, showing a period of extremely inflated expectations.
Other firms such as Palantir and Oracle have also hit record highs thanks to AI–related contracts. The top 10 companies in the S&P index, dominated by large tech corporations, trade at earnings multiples far above the rest, reviving comparisons with the early–2000s .com bubble.
Even though many large tech firms still have solid cash flows and limited formal debt, the infrastructure that sustains generative AI is largely financed with borrowed money.
NVIDIA sells GPUs to cloud AI companies such as CoreWeave or Lambda, which rely on loans from investment banks like Goldman Sachs, JPMorgan or Blackstone. Data centres are structured through financial vehicles such as CMBS, which bet on long–term revenue that is not yet guaranteed.
Systemic risk lies less in public debt and more in the leverage of highly volatile digital assets. The pattern resembles, to some extent, the mechanisms that preceded the 2008 crisis: overvalued assets, packaged into complex instruments and placed in the hands of investors who do not always fully understand the underlying risk.
Unlike the most catastrophic scenarios, there is still no evidence of a massive collapse in employment directly caused by generative AI. Studies such as those by Yale/Brookings suggest that, after several years of ChatGPT, there has been no structural “shock” to the labour market.
However, the impact is uneven. Sectors such as programming, journalism, customer service and content production are under pressure. Automation tends to displace routine tasks performed mainly by younger or junior workers, while senior profiles see their position reinforced.
A Stanford study indicates that employment among 22– to 25–year–olds in these sectors fell by around 16 % after the spread of generative AI, whereas more experienced workers have maintained or improved their employability.
Another worrying element is the low proportion of AI projects that create real value. Research from MIT suggests that only about 5 % of AI pilots generate measurable improvements; the remaining 95 % do not deliver significant results. This has led to the phenomenon known as workslop, where AI–generated output requires extensive review by human experts, shifting the promised productivity gains into supervision and correction.
A less visible effect of the AI boom is the re–routing of internet traffic. Many users have stopped looking for information via search engines and now ask models such as ChatGPT, Claude or Gemini directly. This reduces visits to news sites, forums and technical communities like StackOverflow or Reddit.
Paradoxically, these same sites provide much of the knowledge that AI models rely on. Systems scrape and reuse content without always making consent, attribution or compensation clear. As models are increasingly trained on content generated by other models, we risk entering a loop where the origin of information becomes blurred and quality degrades.
With an overabundance of data, fast–paced social networks and models that synthesise content without showing sources, we move into an age of structural misinformation. Transparency and traceability of knowledge become harder precisely when they are most needed.
We are not yet living through a crisis identical to 2008, but we are witnessing a speculative acceleration that shares several of its ingredients: leveraged debt on uncertain future assets, extreme concentration of economic power and a growing gap between expectations and real outcomes.
Generative AI has opened up enormous possibilities, but it has also produced an almost messianic narrative about its ability to solve economic and social problems. When too many things – from share prices to infrastructure planning – rest on promises rather than tangible profits, the risk of a violent correction increases.
The key question is not only whether we are in a bubble, but who will bear the losses if it bursts: the funds and companies that have captured most of the upside, or the workers, public services and countries that have been pushed to the margins of this new AI economy.