La inteligencia artificial generativa ha dejado de ser una promesa del futuro para convertirse en una herramienta cotidiana, presente en nuestras decisiones, trabajos y hasta conversaciones. Pero detrás de esa inmediatez, existe una dimensión menos visible: su impacto energético creciente y silencioso.

 

Un reciente informe elaborado por la UNESCO y la University College London (julio de 2025) estimó que el uso global de modelos de lenguaje de gran escala (LLM) consume anualmente unos 310 GWh, lo que equivale al consumo eléctrico de más de tres millones de personas en países de bajos ingresos. Cada interacción —cada prompt— tiene un costo energético de alrededor de 0,34 Wh. A simple vista, parece irrelevante. Pero al multiplicarse por millones de consultas diarias en todo el mundo, el impacto se vuelve abrumador.

 

Para ponerlo en contexto: un solo centro de IA puede consumir tanto como una ciudad latinoamericana de más de 100.000 habitantes. Y si se cumplen las proyecciones de la Agencia Internacional de Energía (IEA), los centros de datos podrían consumir hasta 945 TWh por año para 2030, una cifra comparable al consumo eléctrico de países como Japón.

 

La intersección entre tecnología, energía y derecho plantea un desafío urgente y transversal: garantizar un desarrollo tecnológico que sea sustentable, ético y jurídicamente compatible con los compromisos ambientales y sociales. La expansión de la inteligencia artificial no puede disociarse de su impacto material en los recursos, ni de la necesidad de marcos regulatorios que integren tanto la eficiencia energética como los principios de responsabilidad y equidad.

 

Tres planos que debemos abordar:

 

  • Ambiental: el principio de prevención exige repensar el diseño, la eficiencia y el escalamiento de la infraestructura tecnológica.
  • Ético: usar la IA con responsabilidad implica preguntarse no solo para qué se utiliza, sino también cómo se utiliza. ¿Estamos entrenando modelos para resolver problemas reales o para maximizar interacciones vacías?
  • Jurídico: la regulación de la inteligencia artificial debe incorporar criterios de sostenibilidad, transparencia y responsabilidad corporativa. No podemos seguir separando innovación de impacto ambiental. Tampoco podemos relegar la gobernanza digital a la autorregulación de las grandes plataformas.

Un llamado al uso consciente

 

Es momento de usar la inteligencia artificial con inteligencia humana y con propósito.
Así como aprendimos a apagar luces, reducir residuos o cuidar el agua, también debemos aprender a pensar antes de interactuar con la IA.

 

Cada prompt tiene un costo —ambiental, ético y social—. No se trata de limitar el acceso, sino de fomentar una cultura de uso responsable, desde los usuarios individuales hasta los desarrolladores y reguladores.

 

La innovación tecnológica debe ir de la mano de la sostenibilidad y de una ética digital activa. Como profesionales del derecho, tenemos la responsabilidad de impulsar este debate y construir marcos normativos a la altura del desafío.

 

La IA no es neutra, ni inmaterial. Está hecha de energía, decisiones humanas y consecuencias reales. Su uso consciente no es solo una elección individual: es una necesidad colectiva.

 

Fuentes consultadas:

 

  • UNESCO & University College London (julio 2025): AI and Large Language Models: Energy Consumption and Sustainability Report – unesco.org
  • Agencia Internacional de Energía (IEA): Electricity 2024 y proyecciones al 2030 – iea.org
  • Unión Internacional de Telecomunicaciones (ITU): Greening Digital Companies y Digital Technologies and Environmental Sustainability – itu.int
  • ​​​​​​​Programa de las Naciones Unidas para el Medio Ambiente (UNEP) – unenvironment.org
  • The Guardian (abril 2025): Energy demands from AI datacentres to quadruple by 2030
  • ​​​​​​​Business Insider (junio 2025): Tallying the true costs of AI
  • Reuters (agosto 2025): Google agrees to curb power use for AI data centers to ease strain on US grid