Guión del tercer episodio del podcast de Carro de Combate:  impactos y desafíos de la inteligencia artificial

La Inteligencia Artificial se ha consolidado como una de las fuerzas transformadoras más significativas del siglo XXI. Al menos, así lo percibimos. Porque la IA lo inunda todo, desde los sistemas operativos hasta las estrategias empresariales. Hoy, en el podcast de Carro de Combate, desarrollamos algunos puntos clave para entender la magnitud de esta herramienta, y de aquellos desafíos medioambientales y sociales que plantea, y que no son pocos. 

En menos de una década, la IA ha pasado de ser una tecnología disruptiva reservada al mundo de la investigación y la innovación tecnológica, a convertirse en una herramienta de consulta cotidiana, totalmente incorporada a tareas tan prácticas y habituales como las administrativas en las empresas o la planificación de las vacaciones familiares en el ámbito doméstico. 

Pero ¿alguien se ha preguntado qué impactos tiene la IA en cuanto a su desorbitado consumo de agua?  o ¿cuánta energía necesitamos para mantener la IA en constante desarrollo? ¿Y qué hay de su impacto social o cultural? 

Afortunadamente, hay quien sí se ha planteado estas cuestiones que vamos a abordar hoy aquí. 

Pero antes de todo esto, retrocedamos un poco en el tiempo para saber de qué estamos hablando exactamente cuando nos referimos a Inteligencia Artificial.

Cuando hablamos de IA parece que abordamos una nueva forma de colaboración entre humanos y máquinas. Y si nos centramos en los asistentes conversacionales, como ChatGPT (surgido a finales de 2022), hablamos de una auténtica redefinición de nuestra relación con la capacidad de crear, de informarnos e incluso de tomar decisiones. La sensación es de vértigo…

Porque, aunque la IA viene de lejos, la conocida como IA generativa ha entrado en nuestras vidas de forma abrupta (hay que recordar que IAs hay muchas). Y como tantas veces ha ocurrido, lo ha hecho dando pie a un uso masivo de esta tecnología sin sopesar ni acabar de comprender sus implicaciones a corto, medio y largo plazo. 

Los albores de la IA se sitúan en la década de los 50. Las primeras redes neuronales, es decir, que tenían capacidad de aprendizaje, surgen en las décadas de los 80 y 90. Pero ha sido a comienzos de los 2000 cuando la IA ha despegado de manera decisiva con el desarrollo de una mayor capacidad computacional, la digitalización masiva y la disponibilidad de una ingente cantidad de datos en red. 

Primero lo hizo de la mano del machine learning, que son algoritmos capaces de aprender patrones a partir de grandes volúmenes de datos. Y después, con la evolución del deep learning a partir de 2010, se comenzaron a abordar tareas complejas, como el procesamiento de lenguaje natural y de imágenes, lo que supone los cimientos que han permitido el desarrollo de la IA generativa.

De hecho, aunque ya usábamos de manera cotidiana aplicaciones basadas en IA, como traductores o herramientas de reconocimiento facial, la irrupción de la IA en la vida cotidiana y empresarial llegaría en 2022.

A finales de ese año apareció ChatGPT y en cuestión de meses la IA generativa se colaba en todas las conversaciones

El desarrollo de modelos capaces de crear texto, imágenes, música y otros contenidos a través de herramientas intuitivas y accesibles marcaba un antes y un después para su uso generalizado. De hecho, hay quienes hablan de esta última fase como un proceso de democratización en el acceso a capacidades cognitivas avanzadas

Y a una gran velocidad, la IA se instalaba en nuestras vidas como una parte intrínseca a nuestros teléfonos inteligentes.  

Lo que debemos tener claro es que, como habéis comentado, ya antes la IA formaba parte de nuestras vidas, aunque de forma más silenciosa, automatizando y asistiendo distintas tareas. 

Tenemos buenos ejemplos: 

  • Los sistemas de diagnóstico asistido, que analizan imágenes médicas para la detección temprana de enfermedades.
  • Los modelos predictivos que evalúan riesgos crediticios o detectan fraude bancario.
  • Los modelos para la recomendación y personalización de contenidos y productos.
  • Las herramientas para la selección de personal 
  • Y un largo etcétera basado en algoritmos. 

Sin embargo, como habéis apuntado, ahora es accesible desde nuestros ordenadores y teléfonos. 

Y nos permite incluso desnudar de manera ficticia a una persona anónima. 

De hecho, la creación y difusión de contenido pornográfico manipulado, llamados deepfake sexuales, ha obligado al Gobierno español a tomar medidas: los ha incluido como una vulneración del derecho al honor en un Anteproyecto de Ley Orgánica de protección civil aprobado este año

La IA o, mejor dicho, sus múltiples aplicaciones, no están exentas de incongruencias y desafíos. Por ejemplo, cuando hablamos de sostenibilidad. 

Se usa la IA para desarrollar soluciones que minimicen el impacto de nuestra huella ambiental. Pero los centros de datos necesarios para que esta tecnología pueda desarrollarse consumieron en 2022 entre un 2 y un 3 % de la electricidad en el mundo, similar al consumo de países como Brasil, Canadá o Corea del Sur, tal y como explica Laura Rodríguez en su reportaje para el Anuario de Carro de Combate del pasado año sobre los impactos de la IA y los centros de datos

De hecho, la Agencia Internacional de la Energía estima el consumo global de electricidad en ese año, por parte de los centros de datos, en 460 teravatios-hora, que sería algo así como el consumo de Francia, cifra que podría superar incluso los cuatro dígitos en cuestión de un par de años más. 

Otros informes señalan que los centros de datos en Europa consumirán un 170 % más en 2030 que en 2022. Y este consumo conlleva también la generación de emisiones de gases de efecto invernadero, prevista en 300 millones de toneladas de CO2 para 2035, frente a los 180 millones de la actualidad. Ahora mismo estamos en torno al 0,5 % del total de emisiones. 

Esta necesidad de energía eléctrica obliga, de alguna manera, a repensar la planificación estratégica de estas instalaciones por la concentración excesiva de dichos centros en ciertas ubicaciones, como Madrid, que con 46 centros aglutina el 55 % del total de España, con la presión que ello conlleva para sus redes eléctricas.

Es más, en Estados Unidos, esta necesidad energética (asociada al entrenamiento y uso de la IA generativa) está motivando que las empresas del sector tecnológico se decanten por la energía nuclear como fuente para sus centros de datos, por ejemplo, volviendo a reactivar plantas nucleares cerradas para aprovechar las infraestructuras o desarrollando pequeños reactores modulares escalables. 

En definitiva, existe una gran presión sobre la infraestructura eléctrica ya existente y un temor, por parte de las empresas, a no poder responder a la demanda computacional de aquí a pocos años. Porque se prevé que esta demanda alcance, para 2027, el equivalente al consumo de 46 millones de hogares

Aunque debemos matizar que este incremento no solo se debe al desarrollo de la IA sino a otro sinfín de aplicaciones, con demanda creciente, como:

El streaming o el consumo de contenido audiovisual a la carta a través de plataformas como las de Netflix, YouTube, Spotify, etc. 

A las redes sociales, plataformas de videojuegos online, etc.

En definitiva, multitud de servicios a los que nos hemos acostumbrado y que son muy demandantes de recursos por su uso masivo, incluso de recursos hídricos.

Porque los centros de datos necesitan agua para mantener sus instalaciones, la necesitan para refrigerar los equipos y evitar sobrecalentamientos. Y las cifras sobre estos consumos no acaban de quedar claras… 

Hace unos días, una noticia del Mundo Today decía: “Estamos bebiendo agua por encima de nuestras posibilidades”. Alarmados por las elevadas cifras de consumo de agua entre la población mundial, las grandes empresas tecnológicas alertan: si la gente sigue bebiendo agua a este ritmo, nos quedaremos sin Inteligencia Artificial. 

Existe cierta opacidad en el consumo de agua por parte de estos centros, pero, para hacernos una idea, podemos recurrir a un ejemplo reciente, el del centro de datos que Meta levantará en Talavera de la Reina, Toledo, y que consumirá un promedio de 500 millones de litros de agua potable al año (según la propia empresa) en una zona de sequía.

De hecho, para evitar esa opacidad de la que hablamos, la Unión Europea ha creado un marco normativo para los centros de datos. Lo ha hecho a través de una directiva, de 2023, relativa a la eficiencia energética, que incluye varias obligaciones para estos centros como el reporte de información sobre consumo energético (y tipo de energía de la que se abastecen) y consumo de agua (también de agua potable), así como de emisiones de carbono.  

En España, ahora mismo se está trabajando sobre el borrador que deberá transponer la directiva a la normativa estatal.

Se trata de aumentar, de esta manera, la transparencia respecto a estos consumos y minimizar el impacto medioambiental de dichos centros. La normativa convierte así los centros de datos en infraestructuras con responsabilidad respecto al uso racional y sostenible de los recursos.

De hecho, varias organizaciones por la lucha climática en España han exigido que ese borrador, ese futuro real decreto, incorpore medidas que realmente protejan el territorio y eviten que un solo centro de datos pueda consumir hasta 19 millones de litros de agua al día, especialmente dado el riesgo de desertificación que padece un amplio territorio del país. 

Porque no podemos obviar que estos centros tienen que funcionar de manera continua las 24 horas del día todos los días del año. Y hacerlo, además, como hemos señalado, abastecidos de sistemas de refrigeración y de infraestructuras auxiliares intensivas en consumo de electricidad y en consumo de agua

Aunque este, el del consumo energético y de agua, es solo un ejemplo de los impactos no calculados o mejor dicho, minimizados, de la IA. Existen más. 

Como decíamos, son muchos los desafíos de la IA porque son muchas las áreas que ocupa. Seguro que habéis oído hablar de los sesgos algorítmicos respecto a la IA Generativa.

Se refieren a que estos modelos aprenden a partir de datos históricos procedentes de la red, y, por tanto, perpetúan y amplifican los prejuicios sociales y culturales que persisten en los millones de contenidos volcados hasta la fecha.

Hay que pensar que una gran mayoría de las personas jóvenes utilizan herramientas como ChatGPT, Gemini… como fuentes fiables de información, por ejemplo, para informarse y realizar sus trabajos académicos. Por lo tanto, el papel que juegan estas herramientas sobre la percepción de la realidad es cada vez mayor

Y una de las claves reside en que están diseñadas para nutrirse de la cantidad ingente de información que se mueve en internet, esté o no contrastada, y dejando que los algoritmos tengan un peso cada vez mayor sobre la percepción de la realidad. 

De hecho, lo más peligroso de la IA generativa es que no tiene, al menos por ahora, la capacidad de mostrar solo información veraz, pero sí para presentarla como factible, como real. 

Por lo tanto, la IA representa un caldo de cultivo perfecto para los estereotipos o incluso la desinformación

Hace poco varios estudios advertían de que la IA genera contenido machista, homófobo y racista. Uno de ellos era el publicado por la Unesco en 2024 con motivo del Día de la Mujer, donde se solicitaban marcos normativos para frenar estos sesgos y garantizar la equidad.

Y es que, al sesgo de los datos se suma el sesgo de las empresas. Cuando usamos chatGPT o la herramienta que sea, además de los modelos entrenados, hay una aplicación que usa ese modelo ya entrenado. Esto es a lo que se llama guardarrailes y se usa normalmente para que el modelo de lenguaje sea correcto, no diga cosas inapropiadas.  

Así que no se trata ya de que la red neuronal que aprende sea opaca y tenga sesgos, sino que el producto comercial puede tener sesgos según las preocupaciones y motivaciones de la empresa, y no todas tienen que ser necesariamente buenas o bien intencionadas. 

Esta opacidad es un riesgo más. Y el riesgo es mayor si el uso que se le da a estos asistentes es para tareas sensibles o que afectan a vidas humanas, como puede ser la medicina, la seguridad o las relaciones en tu propio trabajo. 

Y a estas consideraciones podríamos añadir otras, porque, cada vez son más las voces que reclaman una mayor atención sobre, por ejemplo:

La pobreza lingüística, es decir, la pérdida de matices en favor de la economía y la eficiencia.

El menor rendimiento a nivel neuronal (lo que se denomina deuda cognitiva), lo que preocupa cada vez más en el ámbito académico. 

O el hecho de que las herramientas mencionadas se nutran de contenidos escritos por ellas mismas, lo que podría llevarnos a un efecto bucle que mermase exponencialmente la calidad de los contenidos volcados a la red (AI slop) y que intensificase el fenómeno conocido como mierdificación en internet.. 

La UNESCO alertaba en el mes de julio de 2025 sobre el coste ético, y no solo medioambiental, de la IA, y la necesidad de concienciar a la sociedad al respecto. Porque, señalaba: 1.000 millones de personas usan diariamente herramientas de IA generativa. Y muchas de ellas lo hacen en busca de asesoramiento, desde financiero a sentimental.

Pero por si no fuera ya suficiente todo lo que hemos comentado, tenemos aún más desafíos sobre la mesa. 

Uno de ellos es el que tiene que ver con los trabajadores y trabajadoras fantasma: hay millones personas empleadas en países del Sur Global que garantizan el funcionamiento de este tipo de tecnología a bajo coste, es decir, a cambio de un sueldo mínimo y en condiciones que no aseguran que sus necesidades mínimas estén cubiertas. Y que además da lugar a lo que se conocen ya como cadenas de suministro colonial, que constituyen una forma de injusticia porque:

Por un lado, demuestran un impacto negativo de esta tecnología sobre el medioambiente (por la extracción de recursos naturales y el consumo de energía, como hemos visto) en estos países.

Y por otro, por la imposición de valores occidentales. 

De todas formas, tenemos que recordar que las grandes tecnológicas recurren a este tipo de trabajadores desde hace tiempo, y no solo para el entrenamiento de las herramientas, filtrando y clasificando datos, sino para sus sistemas online. Por ejemplo, para detectar cierto contenido sensible. 

Es más, en junio de 2025 se supo que la start up británica Builder.ia, valorada en 1500 millones de dólares, ocultó que el papel que concedía a la IA en el desarrollo de apps en realidad era realizado por 700 personas en Asia, a mano y a contrarreloj. El maravilloso algoritmo era, en realidad, un grupo de ingenieros en dudosas condiciones de trabajo, tal y como informaron varios medios de comunicación, entre ellos elpais.es. 

Pero hay más. El debate de la privacidad y el uso de datos por la recopilación masiva de información personal plantea riesgos significativos sobre la seguridad y la transparencia. 

También respecto a los derechos de autor de todas aquellas obras que la IA utiliza para entrenar sus algoritmos. 

Todo ello precisa de marcos legales a la altura de las expectativas, y estos, como también suele ser habitual, van por detrás del ritmo de la innovación.

A pesar de los esfuerzos realizados, por ejemplo, desde la UE, con su estrategia y Ley de Inteligencia Artificial, de 2024, para los Estados miembros, la disrupción tecnológica nos lleva ventaja en este aspecto.

Y no solo eso, dicha ley ha suscitado muchas controversias. De hecho, ha sido criticada, especialmente desde ciertas iniciativas privadas o posiciones neoliberales, por suponer un palo en la rueda del progreso. Para todas ellas, la IA es sinónimo de productividad.

Es cierto que la IA generativa está impulsando un nuevo paradigma de colaboración, donde la IA puede actuar como extensión de las capacidades cognitivas. Pero no debemos olvidar que ha de ser una tecnología al servicio de los intereses de la sociedad, no contraria

Por ejemplo, un estudio de 2024 señalaba que un 79 % de los trabajadores y trabajadoras utiliza estas herramientas a espaldas de la empresa y en muy pocos casos su uso está regulado dentro de las corporaciones. E incluso dentro de las administraciones públicas, para procesos tan relevantes como los de contratación. 

Esto supone una pérdida de control. De ahí la necesidad de no solo crear normativas que garanticen un uso ético y seguro de la IA en los Estados, sino en el seno de las organizaciones, entidades y organismos. 

El pasado agosto, de hecho, la Comisión Europea dio luz verde a un conjunto de directrices para proveedores de modelos de IA de uso general. 

Estas tratan de aclarar las obligaciones de dichas empresas: qué se espera de las mismas para asegurar que su apuesta por la innovación no mine la confianza de la sociedad en cuestiones sensibles como el tratamiento de datos personales o la cesión de estos a terceros. 

Esta medida se enmarca dentro del plan de acción, de abril de 2025, que tiene como objetivo hacer de Europa líder mundial en IA mediante tecnologías confiables que mejoren la competitividad al mismo tiempo que salvaguardan y promueven los valores democráticos. 

Porque el uso de la IA se ha convertido en un asunto prioritario, tanto que incluso las comunidades autónomas lo comienzan a abordar de manera estratégica, como ha hecho por ejemplo Extremadura, pionera en este sentido, y a la que están siguiendo muchas otras.

Lo que está claro es que la aparición de la IA, especialmente la generativa, está reconfigurando la forma en que trabajamos, aprendemos y tomamos decisiones de la mano de sus innegables ventajas. 

Pero también que este avance conlleva responsabilidades, y no solo para garantizar que la IA sea ética, sostenible y centrada en las personas, sino para que no acabe con el pensamiento crítico, con nuestra intuición o experiencia a la hora de elegir el camino adecuado. 

Porque, por ejemplo, no hemos abierto el melón de la empleabilidad…, ¿acabaran los asistentes virtuales y los agentes digitales con los trabajadores y trabajadoras de carne y hueso? 

Todo apunta que la IA, de seguir la tendencia actual, podría suponer la sustitución de ciertos perfiles profesionales, que tendrán que adaptarse. Y no solo para la realización de esa tareas puramente administrativas, donde por cierto el empleo es mayoritariamente femenino, sino para la realización de esas otras más creativas, como el diseño de portadas de libros, por ejemplo. Y para esto último, no estábamos preparados. 

La verdad es que desgranando todos los dilemas que plantea la IA, nos situamos casi en un escenario tipo bladerunner, que asusta un poco, la verdad. Y tampoco nos gustaría caer en el pesimismo ni en el miedo ni en el relato interesado.

Para escapar de esta postura, hemos invitado a nuestra mesa a Javier Arroyo, que es profesor titular del Departamento de Ciencias de la Computación de la Universidad de Alcalá, miembro del Instituto de Tecnología de Conocimiento de la Universidad Complutense de Madrid y que imparte docencia e investiga sobre inteligencia artificial. 

Javier, ¿eres de los que ve el vaso medio lleno o medio vacío, es decir, de los que vislumbra una gran oportunidad de mejora o más bien lo contrario?

Así que, para alejarnos de ese escenario distópico, lo primero que debemos hacer es llamar a las cosas por su nombre, saber de qué estamos hablando, poner orden dentro de ese cajón de sastre que es la IA y en el que todo cabe y a todo se le aplica el mismo rasero. 

Una vez más, llegamos a esa necesidad de informar, educar, sensibilizar…, en el uso de las tecnologías. Esta es una de las claves… Para que las personas se impongan al algoritmo, por así decirlo… Y para que el conocimiento no esté en manos de un puñado de empresas, sino de la sociedad… Esto, ¿cómo lo hacemos?

Pero hemos de admitir que es difícil escapar de un relato en el que la IA se asocia a inteligencia militar o a contenidos online que menoscaban los derechos y la propia integridad de las personas… 

Como queremos acabar este podcast con un canto a la esperanza, qué tal si nos muestras, Javier, algún ejemplo sobre impactos de la IA por los que realmente merece la pena  seguir desarrollando esta tecnología.

Muchísimas gracias, Javier, por haber participado en este capítulo de nuestro podcast de Carro de Combate, ha sido un placer tenerte con nosotras y conversar sobre esas oportunidades de transformación que brinda la IA y sobre esas posibles soluciones para cerrar las brechas que mencionamos antes. 

Y muchas gracias a quienes estáis al otro lado y a nuestras mecenas, que habéis hecho posible que hayamos podido estar en esta mesa durante tres episodios, tratando aquellos temas que más os interesan. 

Porque ya sabéis que para hacer este podcast realidad necesitamos vuestro apoyo, porque sin vuestra contribución no es posible hacer esto, así que desde aquí os animamos, a todas las personas que nos escucháis, a que participéis con vuestro mecenazgo.

Hasta pronto.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio