01 Dic El problema energético de la IA: consume tanta electricidad como un país
La inteligencia artificial está cambiando por completo el mundo tecnológico; sobre todo porque las perspectivas y proyecciones hablan de un papel tan transformador en un futuro cercano como pudo tener el paso del motor de vapor a la electricidad, en su día. Pero precisamente la electricidad, o más concretamente el consumo energético de la IA, debe ser un factor a considerar. Si la transformación digital debe producirse a lomos de innovaciones como la inteligencia artificial es deseable que lo haga de manera sostenible y, al menos de momento, eso es un auténtico reto.
Entrenar una inteligencia artificial consume lo mismo que cuarenta hogares
La inteligencia artificial generativa, ya sea de imágenes, de texto o de otro tipo de datos, no «crea de la nada» lo que ofrece al usuario como resultado de sus solicitudes. Para saber interpretar lo que debe generar, la IA requiere un «aprendizaje» previo. Y ese aprendizaje o entrenamiento del modelo requiere la introducción de millones y millones de datos, ejemplos, imágenes, palabras y expresiones, etc.
Este proceso de entrenamiento consume una gran cantidad de energía. Por poner un ejemplo, la empresa Huggin Face, que se dedica a la inteligencia artificial, asegura que su herramienta multilingüe de generación de texto consume 433 MWh —Mega Vatios hora— en su proceso de entrenamiento. Esta cantidad de energía es suficiente para abastecer de energía a cuarenta hogares estadounidenses durante un año. Google procesa de media unas 9 000 millones de solicitudes de información al día en su motor de búsqueda. Si aplicase un asistente de inteligencia artificial, como se pretende, el consumo energético sería de más de 29 TWh —Tera Vatio hora— en un año. Es la misma cantidad de energía que genera y consume anualmente un país como Irlanda, por ejemplo.
Y estas cifras, siendo más que notables, no representan mucho si las comparamos con las extrapolaciones de consumo energético que puede requerir la inteligencia artificial en un futuro cercano, si su utilización se generaliza entre el público. Algo que es muy probable. Actualmente los costes derivados de la creación de servidores asistidos con IA son muy elevados, pero para 2027 el consumo mundial de electricidad relacionada con la IA podría aumentar entre 85 y 134 TWh anuales, según algunas proyecciones.
En busca de una fuente energética para la inteligencia artificial
Con estos datos es urgente buscar soluciones, en lo relativo a la generación de energía. Recientemente, el ingeniero jefe de inteligencia artificial generativa de Meta —antes Facebook—, Sergei Edunov, aseguró que para cubrir la demanda energética de sus desarrollos «solo» hacen falta dos reactores nucleares. Algo que resulta equiparable para otros gigantes de la industria como Amazon, Google o Apple, por ejemplo. De hecho estos grandes actores están invirtiendo ya en energía nuclear para cubrir las necesidades de energía de sus innovaciones de inteligencia artificial.
Pero ¿Y la huella de carbono? Sería ideal que todo el consumo energético que requiere la IA procediera de fuentes que no emitieran gases de efecto invernadero. Algo que no ocurre en la actualidad: las tarjetas gráficas, que funcionan a pleno rendimiento en la generación de imágenes, por ejemplo, no se «alimentan» de fuentes de energía limpias. Los centros de datos ya son responsables del 1% de las emisiones contaminantes a nivel global, algo que está empeorando con la implementación de innovaciones de inteligencia artificial.
La solución puede ser doble: por un lado, potenciar el uso de energías renovables en este tipo de centros de datos —la Unión Europea pretende que sean neutros en emisión de carbono para 2030—. Por otro, incrementar y mejorar la regulación de todo lo relacionado con la inteligencia artificial. El objetivo sería que las empresas estén obligadas a revelar públicamente los consumos de sus desarrollos y las medidas que están adoptando para reducirlos, así como incentivar estas últimas.