Actividad y crecimiento

Estrategias diferenciadas para gobernar la IA: ¿hacia la cooperación o el conflicto?

La inteligencia artificial (IA) generativa es un área crítica de competencia económica y estratégica entre las grandes potencias, cuyo desarrollo depende tanto del dinamismo del sector privado como de la acción del Estado. Ambos definen el alcance y los efectos de una tecnología cuyo complejo ecosistema integra la actividad innovadora y su monetización, la posición en la cadena de valor, su difusión y adopción, y la gestión de sus externalidades. Desde la óptica geoeconómica, este artículo revisa las estrategias adoptadas por EE. UU., China y la UE en dimensiones clave como la regulación, el papel del Estado en el modelo industrial, los instrumentos públicos de apoyo y políticas transversales como la capacitación profesional o la sostenibilidad. Cerramos con una reflexión sobre la interacción futura de estos modelos de gobernanza y los potenciales espacios de fricción y cooperación que pueden generarse.

Content available in

EE. UU. apuesta por gobernar la frontera tecnológica

El potencial de la IA reside en la complejidad, la velocidad y la fiabilidad con la que realiza tareas. Su desarrollo descansa en la combinación de conocimiento avanzado para el diseño de modelos de lenguaje, ordenadores equipados con chips de alta capacidad de procesamiento y una sólida arquitectura física –centros de datos– y digital –infraestructura en la nube– para el almacenamiento de información y el entrenamiento de modelos.

En este terreno, EE. UU. ha consolidado su posición en la frontera global de la IA gracias a su capital humano, sus capacidades tecnológicas y un entorno empresarial propicio.1 Cuenta con un ecosistema innovador basado en universidades de élite y concentración de talento STEM e investigador internacional. Dispone además de apoyo público como incubador temprano, liderado por agencias civiles (NSF) y militares (DARPA), y de un clúster empresarial con grandes compañías tecnológicas, integradas en el tejido industrial y con músculo financiero y apetito por el riesgo. A ello se suman una fiscalidad y un marco regulatorio favorables, de mínima intervención en la fase de desarrollo, todavía sin una ley integral federal2 y con predominio de actuaciones ex post. El plan de acción de la Administración Trump ha reforzado la apuesta por la frontera tecnológica con un marcado acento geoestratégico,3 fijando como objetivo explícito que semiconductores, modelos y aplicaciones estadounidenses sean hegemónicos a escala global y se conviertan en el nuevo «patrón oro».4

En contraste, la planificación, coordinación y orientación estatales son la base del modelo chino. Si bien son las empresas privadas quienes han capitalizado la mejora exponencial de capacidades tecnológicas en la última década, la investigación y el desarrollo de la IA están alineados con las prioridades nacionales. Frente al objetivo estadounidense de definir la frontera tecnológica, China prioriza eslabones clave en la cadena global de valor industrial,5 la escala, la autosuficiencia tecnológica y la seguridad. A ello contribuyen subsidios, incentivos fiscales y mecanismos de financiación pública, tanto a nivel central como provincial. Este enfoque se complementa con el control preventivo de los contenidos con impacto social, incluidos requisitos de registro y evaluación ex ante de los sistemas de recomendación en aplicaciones digitales.6 La regulación reciente refuerza los límites a la difusión pública de información mientras mantiene mayor libertad relativa en la investigación, el desarrollo y el entrenamiento de modelos para usos productivos o estratégicos.7

Por su parte, la UE busca articular una gobernanza común que supere la prevalencia de los marcos nacionales en el desarrollo de la IA. La principal fortaleza del ecosistema innovador europeo es su base científica e investigadora, con universidades y centros de excelencia. Sin embargo, adolece de una coordinación supranacional insuficiente y de una priorización limitada de sus programas marco, como Horizon Europe. El sistema financiero está menos orientado a la asunción de riesgos y, junto con la fragmentación del mercado interior, dificulta la transferencia y monetización del conocimiento, y el escalado tecnológico.8 Para proteger a los ciudadanos, el marco normativo de la UE prioriza la regulación ex ante de los usos de la IA en función del riesgo,9 lo que puede desplazar su desarrollo lejos de la frontera innovadora. A ello se añade una elevada dependencia externa en semiconductores avanzados y modelos fundacionales, que la UE trata de mitigar mediante una estrategia de autonomía abierta y diversificación de socios económicos.10

  • 1

    Según estimaciones basadas en datos de Epoch AI, EE. UU. concentra dos tercios de la capacidad mundial de computación relacionada con la IA, seguido de China con cerca del 20%, mientras que la UE apenas alcanzaría un 5%.

  • 2

    La única ley general de la IA vigente en EE. UU. es la aprobada por el estado de Colorado en 2024.

  • 3

    Casa Blanca (2025), «America's AI Action Plan».

  • 4

    Desplaza así el foco previo en la coordinación del ecosistema innovador y la resiliencia industrial recogidos en la National Artificial Intelligence Initiative Act (2020) y la CHIPS and Science Act (2022).

  • 5

    Véase el Focus «La alquimia de China: cómo transforma minerales críticos en poder global» en el IM01/2026.

  • 6

    Cyberspace Administration of China, CAC (2021), «Algorithm Recommendation Provisions». CAC (2023), «Interim Measures for the Management of Generative AI Services», CAC (2023), «Deep Synthesis Provisions» y CAC (2025), «AI-generated Content Labeling Rules».

  • 7

    CAC (2023), «Interim Measures for the Management of Generative AI Services», CAC (2023), «Deep Synthesis Provisions» y CAC (2025), «AI-generated Content Labeling Rules».

  • 8

    Draghi, M. (2024), «The Future of European Competitiveness».

  • 9

    UE (2024), Artificial Intelligence Act.

  • 10

    El Plan de Acción «Continente de IA», presentado por la Comisión en 2025, traslada al conjunto de la cadena de valor el enfoque de intervención pública estratégica aplicado a los semiconductores en la European Chips Act (2023), complementado por los objetivos de la Critical Raw Materials Act (2024) para garantizar un suministro seguro y sostenible de materias primas fundamentales.

China prioriza la adopción y la difusión con usos productivos

Más allá del desarrollo tecnológico, el impacto económico y social de la IA depende en gran medida de cómo se gobiernan su adopción y difusión, ámbitos en los que los principales actores también presentan enfoques claramente diferenciados.

En EE. UU., el liderazgo corresponde a la iniciativa y competencia empresarial privada, con las grandes plataformas tecnológicas y los proveedores de software como canales naturales de escalado hacia empresas y consumidores. La acción estatal se centra en eliminar barreras, proveer infraestructuras críticas y utilizar la contratación pública –especialmente en defensa y seguridad– como mecanismo tractor de adopción. La regulación es mayoritariamente ex post, guiada por estándares voluntarios de aplicación transversal definidos por una agencia científica federal (NIST), junto con supervisión sectorial en ámbitos sensibles, como la protección de pacientes sanitarios y clientes de servicios financieros. Desde esta lógica de mínima intervención, el Estado actúa como facilitador y, en gran medida, deja en manos del mercado la gestión de ámbitos transversales, si bien el nuevo marco regulatorio nacional incluye recomendaciones para la recualificación profesional y para limitar el impacto de la expansión de los centros de datos en el coste de la electricidad.11

El modelo chino muestra, como en la fase de desarrollo, un elevado protagonismo público. El Estado actúa como coordinador del ecosistema, regulador ex ante, financiador y demandante, canalizando una elevada inversión pública a través de grandes empresas estatales y hacia sectores estratégicos como la industria avanzada, la logística, la energía y la seguridad. La planificación incluye objetivos de penetración sectorial y territorial a distintos horizontes, con una hoja de ruta que culminaría en una economía y sociedad plenamente «inteligentes» en 2035.12 Para ello se definen programas verticales de transformación de la cadena de valor industrial,13 con entornos controlados de competencia que facilitan evaluar la escalabilidad sin trasladar riesgos al conjunto del sistema, como sandboxes regulatorios y zonas piloto. Este enfoque se acompaña de la integración de la IA en la educación superior y de programas de capacitación técnica y profesional. La planificación energética y de infraestructuras forma parte de la estrategia de despliegue, mientras que la sostenibilidad queda subordinada a las prioridades nacionales de seguridad económica.

A diferencia de EE. UU., donde la difusión de la IA descansa en grandes plataformas privadas, y de China, donde el Estado actúa como demandante centralizado, en la UE la adopción y difusión de la IA se articula principalmente a través de un enfoque regulatorio y de acompañamiento público. La fragmentación del mercado interior y las obligaciones normativas ex ante para usos de alto riesgo condicionan el ritmo y la escala de la adopción.14 La acción pública combina regulación con instrumentos comunitarios –como la estrategia de aplicación de la IA– y apoyos prácticos, como hubs y entornos de prueba, orientados a facilitar la implementación sectorial y reducir la incertidumbre jurídica.15 Este enfoque tiende a encarecer la adopción y a ralentizar la difusión, especialmente entre las pymes, donde los costes fijos y el déficit de competencias pesan más. A ello se añaden condicionantes estructurales, como los elevados costes energéticos y los compromisos medioambientales asociados al despliegue de infraestructuras intensivas en computación.16

  • 11

    Casa Blanca (2026), «Artificial Intelligence: national policy framework».

  • 12

    Estos objetivos están definidos por el programa de trabajo de la iniciativa AI Plus lanzada en 2024 por el consejo de Estado, a semejanza de la iniciativa Internet Plus de 2015.

  • 13

    Por ejemplo, la iniciativa AI + Manufacturing lanzada en 2025 dentro de AI Plus.

  • 14

    Draghi, M., op. cit.

  • 15

    La AI Act (2024) establece mecanismos de acompañamiento al despliegue para facilitar el cumplimiento normativo en usos de alto riesgo, mientras que la Apply AI Strategy (2025) los integra en un plan de acción orientado a acelerar la adopción, especialmente entre pymes y administraciones.

  • 16

    IEA (2025), «Energy and AI».

La UE busca su lugar en la geopolítica de la IA

La rivalidad entre EE. UU. y China en la era de la IA se desarrolla bajo una elevada incertidumbre estratégica.17 No está claro si la ventaja en la frontera tecnológica generará rentas persistentes difíciles de replicar o si la competencia se desplazará hacia la difusión, el despliegue y la capacidad de escalar aplicaciones en sectores clave. En ambos escenarios, el poder asociado a la IA tenderá a depender del control de activos fundamentales –chips avanzados, capacidad de cómputo, energía, talento e integración industrial–, por lo que apostar por una única trayectoria puede resultar costoso si la evolución tecnológica diverge de los supuestos iniciales.

Este marco tiende a situar a las potencias medias en una posición de dependencia tecnológica.18 La concentración de talento, inversión y capacidad de cómputo en EE. UU. y China limita el margen de influencia sobre el rumbo del cambio tecnológico y amplifica los costes de ajuste económico y social asociados a la IA. Para la UE, el riesgo de quedar rezagada refuerza el debate sobre el equilibrio entre regulación, competitividad y escala. En particular, el diagnóstico del informe Draghi sobre las fricciones del mercado interior y la dificultad de escalar innovación conecta con el giro reciente hacia enfoques de simplificación y proporcionalidad regulatoria, con el objetivo de evitar que la seguridad jurídica termine penalizando la adopción y el escalado, especialmente entre las pymes.19

Con todo, la gobernanza de la IA no queda necesariamente reducida a una lógica de bloques. Incluso en un contexto de rivalidad estratégica, las iniciativas multilaterales recientes muestran espacios para coordinar principios y prácticas. Así, el foco en seguridad y regulación de las cumbres de Londres (2023) y Seúl (2024) se ha ampliado a una agenda más transversal de innovación, habilidades digitales, impacto laboral y sostenibilidad en París (2025), y el énfasis en las brechas de capacidades entre economías avanzadas y emergentes en Nueva Delhi (2026). En esta línea, el marco impulsado en las Naciones Unidas sugiere una arquitectura global más inclusiva y distribuida basada en principios comunes y mecanismos complementarios a las estrategias nacionales y regionales.20 Para la UE, el desafío será precisamente traducir esta agenda cooperativa en capacidades reales de adopción y escalado.

  • 17

    Foreign Affairs (2026), «Geopolitics in the Age of Artificial Intelligence: Strategy and Power in an Uncertain AI Future».

  • 18

    Foreign Affairs (2026), «The AI Divide: How U.S.-Chinese Competition Could Leave Most Countries Behind».

  • 19

    La propuesta de la Comisión Europea contenida en el paquete Ómnibus Digital de noviembre de 2025 –actualmente en negociación entre colegisladores– introduce un tono más pragmático en el enfoque regulatorio, con ajustes orientados a reducir cargas y facilitar la adopción tecnológica sin alterar los objetivos de protección.

  • 20

    Naciones Unidas (2024), «Gobernanza de la Inteligencia Artificial en beneficio de la Humanidad».

Tags:
  • Digitalización y tecnología
  • Geopolítica
  • Inteligencia artificial (IA)