Las batallas de la IA*

Que existe una “guerra fría” entre Estados Unidos y China por el control de la tecnología de inteligencia artificial buscando definir los modelos, el hardware y la regulación global es evidente, pero ¿las batallas se extienden al campo de lo ético y social?

La continua sospecha y discusión sobre la privacidad de los datos, la vigilancia, los intereses económicos, la lucha entre modelos abiertos y cerrados, y otras muchas más cuestiones igualmente evidencian esas otras batallas.

Vayamos por partes:

El sector sanitario ilustra perfectamente los peligros de la IA opaca.

¿Confiarías en un diagnóstico generado por un algoritmo propiedad de una empresa privada que tiene acuerdos comerciales con aseguradoras y hospitales privados? ¿Y si sus recomendaciones de tratamiento están condicionadas no por criterios médicos, sino por consideraciones económicas programadas en su código?

Históricamente, un médico debe justificar sus decisiones, citar evidencia, explicar su razonamiento.

La medicina ha operado tradicionalmente bajo principios de transparencia y revisión por pares, pero si delegamos diagnósticos a cajas negras algorítmicas, perdemos esa trazabilidad. El paciente se convierte en rehén de decisiones que no puede comprender ni cuestionar.

Imaginemos un algoritmo que recomiende tratamientos más baratos no por ser mejores, sino porque la empresa matriz tiene acuerdos con determinados proveedores farmacéuticos. O que priorice a pacientes con mejores seguros médicos. Todo esto podría ocurrir sin que nadie lo sepa, protegido por el manto del “algoritmo propietario”.

Y si nadie estudia medicina en el futuro o investiga…

La batalla por la IA se está librando principalmente entre Estados Unidos y China, pero sus motivaciones no son precisamente altruistas.

Estados Unidos apuesta por un modelo de IA privada y cerrada, con empresas como OpenAI, GOOGLE-GEMINI y ANTHROPIC controlando modelos propietarios que generan miles de millones en valoraciones.

China, sorprendentemente, ha adoptado una estrategia de código abierto más agresiva, liberando modelos que cualquiera puede auditar y modificar.

Pero esta aparente apertura china es estratégica, no ética.

Ambas superpotencias han extraído masivamente el conocimiento humano global sin consecuencias legales reales. La diferencia radica en sus enfoques: Estados Unidos busca el dominio a través del control corporativo; China, a través de la influencia por adopción masiva.

Mientras tanto, los políticos occidentales están más preocupados por “no quedarse atrás” en la carrera tecnológica que por proteger el patrimonio intelectual de la humanidad.

La narrativa se centra en competitividad nacional, no en justicia global.

Europa intenta regular, pero sin músculo industrial real, quedando como espectadora de un duelo entre titanes.

El efecto más pernicioso de este cercamiento es su impacto en la motivación humana para generar conocimiento original. Si todo lo que escribes, investigas o creas puede ser absorbido instantáneamente por modelos de IA sin compensación ni atribución, ¿Qué incentivo queda para la innovación?

Los síntomas ya son visibles:

  • Estudiantes que han normalizado usar IA para ensayos y tareas, perdiendo la capacidad de desarrollo del pensamiento crítico.
  • Investigadores que dudan sobre publicar en abierto, temiendo alimentar sistemas que después competirán con ellos.
  • Artistas y escritores preocupados porque sus obras entrenen algoritmos que los reemplazarán.
  • Periodistas viendo cómo sus artículos se resumen y redistribuyen sin tráfico ni ingresos.

El círculo vicioso es evidente: menos creación humana original significa modelos cada vez más recursivos, alimentándose de contenido generado por IA anterior. La calidad se degrada, la diversidad se reduce, la innovación se estanca.

Mientras, los “vende humo” dicen que con un agente de IA te harás millonario o que despidas a todo el mundo y solo con IA tu empresa alcanzará el éxito €€€.

La investigadora GINIE SERVANT-MIKLOS, en su obra revolucionaria PEDAGOGIES OF COLLAPSE: A HOPEFUL EDUCATION FOR THE END OF THE WORLD AS WE KNOW IT, propone un marco pedagógico que puede guiarnos en esta encrucijada histórica:

  1. Hablar la verdad.
  2. Hacer espacio para el duelo.
  3. Tomar acción apropiada ahora.
  4. No hacer de lo perfecto enemigo de lo bueno.

Esta propuesta pedagógica “hace un caso urgente y lleno de datos sobre la urgencia de acción, pero resiste la tentación de caer en las categorías usuales de los discursos ambientales. Rechaza tanto el optimismo injustificado de las narrativas de progreso como la desesperación inútil de las narrativas de extinción“.

En el contexto de la IA, esto significa reconocer que estamos ante un momento de colapso civilizacional —no necesariamente catastrófico, sino transformacional— donde las estructuras de poder que conocemos están siendo reconfiguradas a una velocidad sin precedentes.

En este futuro distópico, siguiendo la METÁFORA DE KEMP sobre las sociedades “Goliat” —grandes, jerárquicas y paradójicamente frágiles— tendríamos:

  • El conocimiento se vuelve servicio de suscripción. Las nuevas generaciones pagan mensualidades para acceder a información que sus ancestros crearon y financiaron públicamente. Los más pobres quedan excluidos de herramientas cognitivas básicas, creando una nueva clase de analfabetos digitales.
  • Los sesgos se institucionalizan a escala industrial. Como señala Kemp, los “Goliat” modernos están “obsesionados con el crecimiento, con instituciones extractivas como la industria de combustibles fósiles, las grandes tecnológicas y los complejos militar-industriales que gobiernan nuestro mundo”. La discriminación se automatiza y se vuelve invisible, protegida por secretos comerciales.
  • La medicina se privatiza algorítmicamente. Diagnósticos y tratamientos quedan sujetos a decisiones opacas que priorizan rentabilidad sobre salud. Los pacientes pierden agencia sobre su propio cuerpo o, lo que es lo mismo, ya no lo controla, pierde la guía que le da su conciencia, y se produce un alejamiento sobre sí mismo.
  • La creatividad se atrofia por dependencia. Como en los colapsos históricos estudiados por Kemp, la pérdida de diversidad y autonomía local lleva al estancamiento. Si todo se puede generar automáticamente, ¿para qué desarrollar capacidades humanas originales?
  • La dependencia se normaliza. Las próximas generaciones crecen incapaces de pensar críticamente o cuestionar autoridades algorítmicas. El pensamiento independiente se convierte en lujo para élites, replicando los patrones de desigualdad que han caracterizado a todas las civilizaciones “Goliat”.

Aquí es donde la perspectiva antropológica de Kemp cobra relevancia: el colapso no siempre es catástrofe.

Durante los primeros 200.000 años de historia humana, “los grupos igualitarios de humanos cazadores-recolectores comenzaron a asentarse y organizarse en jerarquías” solo hace 12.000 años. El modelo jerárquico no es inevitable.

La alternativa requiere acción inmediata, siguiendo el marco de Servant-Miklos:

  • Repositorios públicos de conocimiento como infraestructura civilizacional básica. Bibliotecas digitales, archivos y bases de datos financiados públicamente, con licencias que garanticen acceso libre pero rastreable. Como señala Servant-Miklos: “estamos mirando el colapso a la cara” en un mundo hiperconectado donde “este desenmarañamiento se transmite en vivo para que todos lo vean”. Un camino podría ser potenciar los Espacios de Datos (como hace España y la UE).
  • IA transparente y auditable desarrollada por consorcios público-privados, donde cualquiera puede examinar cómo se toman las decisiones. Esto requiere superar lo que Servant-Miklos denomina la “magia tecno-fálica“: la creencia ciega en soluciones tecnológicas sin cuestionar sus fundamentos.
  • Marcos regulatorios claros que exijan transparencia total en algoritmos que afectan vidas humanas: medicina, justicia, empleo, educación… No podemos permitir que el “secreto comercial” se convierta en escudo para la irresponsabilidad social. Obviamente, teniendo en cuenta el problema del servilismo político y el poder de los lobbies.
  • Educación crítica para la era algorítmica. Como plantea Servant-Miklos, el desafío educativo es “redescubrir significado y propósito en la vida bajo, y más allá, de las ruinas neoliberales”, dando a los estudiantes “suficiente valor para enfrentar las preguntas difíciles planteadas por el colapso“. En una época de consumo rápido y scroll infinito hedonista, es un reto mayúsculo.
  • Incentivos para la creación humana. Sistemas de compensación que reconozcan y remuneren las contribuciones humanas al conocimiento colectivo, evitando el círculo vicioso donde nadie quiere crear porque todo será copiado sin atribución.

Es vital enfocar, de forma amplia e inclusiva, un negocio compartido que no deje a nadie atrás… Y en eso estamos en TODO ES SINGULAR con proyectos como SUMMAX.

*Este post es propiedad de TODO ES SINGULAR, S.L. (www.todoessingular.com) y la información contenida puede ser utilizada por terceros con la autorización expresa y por escrito de la fuente.

Fecha de Publicación:

Última modificación: 5 de septiembre de 2025

¿Quieres conocer más del Universo Singular?

Compartamos experiencias y negocios, para que todos ganemos.

¡Conectemos!