En una conferencia en Londres, Bill Gates invitó a ecologistas, gobiernos y reguladores a no exagerar con respecto al incremento de consumo provocado por la explosión de la popularidad de la inteligencia artificial generativa y los data centers que precisa para funcionar.
Indudablemente, el desarrollo de una tecnología que precisa de una capacidad de procesamiento enorme soportada por data centers cada vez más grandes da lugar a un fuerte incremento del consumo de electricidad, que algunos comparan con el consumo eléctrico total de un país pequeño como los Países Bajos. La propia Microsoft ha anunciado en su memoria corporativa que el desarrollo de de la inteligencia artificial generativa y su incorporación a prácticamente todo tipo de funcionalidades en sus productos ha dado lugar a un incremento del 30% en su consumo total de electricidad, y la ha obligado a retrasar sus objetivos de reducción de su huella de carbono.
Ahora bien, todos los que peinamos algunas canas en el entorno de la tecnología recordamos cómo, efectivamente, muchos se echaban las manos a la cabeza hace años con el incremento de consumo que suponían las consultas a buscadores como Google, con unas estimaciones que resultaron no solo ser completamente erróneas, sino que además, obviaban completamente los ahorros de energía muchísimo más importantes generados debido a la disponibilidad de esa información. ¿Somos capaces de imaginar cómo habría sido nuestra vida sin buscadores como Google, y la energía que habríamos consumido si hubiésemos tenido que ir a buscar a cada fuente toda esa información?
Pero más allá de las consideraciones con respecto a la eficiencia global, está el hecho de que la industria tecnológica es una de las más destacadas en sus compromisos climáticos, decididamente una de las que más energía sostenible utiliza. Y lo hace no solo por una cuestión de cumplir sus objetivos climáticos, sino por otra razón muy sencilla y fácil de entender: es la energía más barata, y sobre todo si la generas tú mismo. Esto, de hecho, afecta a las decisiones de localización de data centers: recientemente, Microsoft ha decidido ubicar varios de sus data centers en España, con una inversión total de 2,100 millones de dólares, debido fundamentalmente a consideraciones sobre las ventajas en precio de la electricidad generada en España con respecto a los países de su entorno cercano, debido al superávit previsto de energía renovable generada en el país.
¿De qué hablamos entonces? En primer lugar, de una tecnología efectivamente ineficiente que precisa de muchísima capacidad de proceso para obtener resultados, pero susceptible de generar ahorros muy significativos en muchísimos procesos en el futuro. Pero además, de un incremento del consumo que tiende, por su ventaja en costes y por las características de las compañías que la utilizan, a dar lugar a un mayor desarrollo de infraestructuras dedicadas a la generación renovable. Pronto, vivir sin algoritmos de inteligencia artificial generativa implicados en un montón de tareas cotidianas será prácticamente como evocar el pasado.
¿Tiene sentido demonizar una tecnología como la IA porque genera un incremento del consumo energético a corto plazo, cuando sabemos que muchísimas cosas que hoy consumen energía se volverán más eficientes a medio y largo plazo, y que sin ninguna duda, nos dirigimos hacia entornos de hiperabundancia energética gracias al sobredimensionamiento de las renovables? A veces, para dar un salto hacia adelante, hay que dar algunos pasos hacia atrás.
This article is also available in English on my Medium page, «Yes, AI will need a lot of energy, but most of it will be renewables, and in the long-term it will more than pay off«
Me suena a los padres de una criatura a la que no le dan ningún alimento realmente nutritivo, porque son más caros de entrada. Como si el cultivo de la inteligencia humana se pudiera hacer a base de hidratos de carbono y grasas, sobre todo altamenet procesadas.
Es decir, que la vitamina B12 y otras no se le da al bebé porque cuesta mucho más que el agua. Y la leche se le da también aguada, para ahorrar costes. Como es ahorrarle la teta para que mamá no se sienta incómoda con el horario.
Realmente hay mucho empresario mangante, rácano y megaantieficiente. Pero también hay trabajadores de base, que solo piensan en como llevarse a casa las herramientas de repuesto, para hacer sus trabajitos caseros. O incluso en cómodos plazos de paraautónomo.
Como decía el otro cuesta mucho encontrar a un ser humano que pueda tirar la primera piedra. Los que lo hacen, normalmente, son los más corruptos.
Y dar de comer a un león, cristianos por ejemplo, para que se tumbe a la sombra, no parece comparable con darle de comer a una IH que furrule. O, como no, a una IA que también lo haga.
Y no nos olvidemos, que siendo programadas por humanos, también saldrán al mercado IAs que serán auténticos bodrios en eficiencia. Pero ese es otro tipo de problema.
El condensador de flujo, o el proyecto ITER podrían llegar a proporcionar la energía necesaria para cualquier proyecto de IA
https://es.wikipedia.org/wiki/ITER
Sin embargo, el verdadero combustible y el más valioso para el futuro de una IA (omnisciente) creo que está en los Datos (y más concretamente en los Datos Personales e Individuales) que permitan generar extrapolaciones cada vez más «creibles» y por lo tanto útiles para generar «contenidos» que puedan venderse como «soluciones fiables».
Sobre los datos, me pregunto por qué nadie ha protestado cuando este enero pasado todos los Medios de Incomunicación Social se han puesto de acuerdo Extorsionarnos para vender nuestros datos de navegación a Terceros (o pagar)
https://www.enriquedans.com/2024/01/las-cookies-o-la-pasta.html
Mucho «ecologista de salón» preocupado por la energía del Sistema pero nada exigente con la Privacidad de nuestros Datos y nadie en las redes encabezando alguna Campaña que denuncie las malas artes de quienes debieran proporcionar información fiable en una Sociedad Democrática…
Enrique, gracias por existir… Primera vez en tu Blog
Una opinión sobre el carbón de la IA (la venta de nuestros datos a Terceros)
http://www.galiciaconfidencial.com/noticia/255836-novo-peche-informativo
Saludos
Precisamente hoy nombras al ITER.
1) no se demoniza el gasto energético, se demoniza el uso absolutamente estúpido de energía, como p.ej. para crear «arte» y ese otro 99.9% de chorradas para las que se va a usar
2) lo más importante que tiene que hacer la humanidad ahora mismo es quitarle todo el poder a esos lunáticos supervillanos como Bill Gates, que campan a sus anchas y atan nuestros destinos, despilfarrando todo el capital humano y material en chorradas que nos desvían de un futuro utópico
No dudo que la AI precise de mucha energía, pero no será mas que un área de consumo grande de energía mas de los muchos que existen,
A bote pronto se me ocurren otros, los siguientes. La fabricación de cemento, la industria del aluminio, refinerías de petróleo, centros comerciales, con fuerte iluminación y climatización, (has parado en el pasillo de los yougures), el mismo hogar de cada cual con calefacción, aire acondicionado, todo tipo de electrodomésticos y ascensores, la aviación y trenes de alta velocidad, invernaderos: iluminación artificial,( has visto las tierra desde un avión por la noche),…
Cualquiera de estas áreas consumen inmensas cantidades de energía sin que nadie haya alzado la voz para pedir su limitación, Uno se pregunta por qué se pide en la AI, ¿Es en realidad por el consumo que arrastran, o es por otros miedos menos confesables?
Lo que son ineficientes son los modelos de lenguaje grande o LLM, que son entrenados mediante el empleo de una potencia de computo masiva para crear chatbots, sin ninguna capacidad de elaborar lenguaje de forma abstracta o mediante ninguna operación intelectiva de nivel superior, llamémoslo así.
Un cerebro humano, mucho más eficiente y preciso, consume 0,3 kwh y con ellos, además de mantener conversaciones mucho más elaboradas y sutiles y de un nivel de abstracción más elevado, se ha construido toda una civilización, con lápiz y papel como periférico de salida.
Es el consumo medio por supuesto. Otros, pueden hacer saltar una alarma antiincendios en un peak.
Los LLM y los actuales algoritmos generativos son ineficientes y están obsoletos en su propósito de emular un tareas cognitivas complejas. Es un gasto energetico espurio, para lograr poco más que un papagayo.
Las tecnologías que engloba la buzzword «Inteligencia artificial» no se reducen a esos modelos de computo masivo.
–
«Is a good piece a mentals under di cap»
Disclaimer sin cuarta pared
Hablemos del efecto Terminator
Hay gente con una autoestima tan estropeada, que cuando hablan con alguien inteligente y amable, que les entiende, artificial o no, se asustan y creen que están siendo manipulados.
Se le suele llamar problemas de confianza.
El Uncanny valley de las interacciones sociales.
A Tense Game Of Go
El libro gordo te enseña, el libro gordo entretiene…
«Para proporcionar una estimación más precisa del consumo energético de los modelos de OpenAI, es necesario considerar tanto el proceso de entrenamiento como la inferencia. Vamos a revisar algunos datos y estimaciones disponibles y hacer un cálculo aproximado.
### Entrenamiento de Modelos Grandes
El entrenamiento de grandes modelos de lenguaje natural, como GPT-3 y GPT-4, es extremadamente intensivo en términos de energía. Aquí hay algunos puntos clave y estimaciones:
1. **Estimaciones del Entrenamiento de GPT-3**:
– **Parámetros**: GPT-3 tiene 175 mil millones de parámetros.
– **Tiempo de Entrenamiento y Recursos**: Según algunas fuentes, el entrenamiento de GPT-3 se llevó a cabo en clústeres de miles de GPUs durante semanas.
– **Consumo Energético**: Un artículo de AI Impacts estimó que el entrenamiento de GPT-3 podría haber consumido aproximadamente 1,287 MWh (megavatios-hora) de electricidad.
2. **Entrenamiento de GPT-4**:
– **Parámetros**: Aunque OpenAI no ha revelado el tamaño exacto de GPT-4, se presume que es más grande que GPT-3.
– **Consumo Energético**: Si extrapolamos el consumo energético de GPT-3, el entrenamiento de GPT-4 podría haber consumido significativamente más energía, posiblemente en el rango de 2,000-3,000 MWh, dependiendo del tamaño y la optimización.
### Inferencia y Uso Continuo
El uso continuo de los modelos de OpenAI también consume energía. Esto incluye cada vez que se realiza una solicitud al modelo para generar texto.
1. **Estimaciones del Uso Diario**:
– OpenAI maneja millones de solicitudes diarias.
– El consumo energético por solicitud depende del tamaño del modelo y la infraestructura utilizada. Un estimado conservador podría ser de varios kilovatios-hora (kWh) diarios.
### Comparación y Conclusión
– **Entrenamiento**: Sumando las estimaciones, el entrenamiento inicial de GPT-3 y GPT-4 podría haber consumido aproximadamente 3,000-4,000 MWh de electricidad en total.
– **Inferencia**: Si consideramos que OpenAI maneja 1 millón de solicitudes diarias y cada solicitud consume 0.0005 kWh (una estimación baja), esto resultaría en 500 kWh diarios. Anualmente, esto sería aproximadamente 182.5 MWh.
### Total Aproximado
Sumando ambas estimaciones (entrenamiento y un año de inferencia):
– **Entrenamiento**: ~3,500 MWh (promediando entre GPT-3 y GPT-4)
– **Inferencia Anual**: ~182.5 MWh
**Total Estimado**: ~3,682.5 MWh para el primer año de uso de GPT-4, incluyendo el entrenamiento y un año de inferencia.
Estas cifras son estimaciones aproximadas basadas en la información disponible y pueden variar significativamente con datos precisos. La eficiencia de los centros de datos, las mejoras en la infraestructura y la optimización continua del modelo también pueden influir en estas cifras.»
(y no me lo creo…)
No deja de ser curioso que sea Bill Gates, impulsor de la energía nuclear -es presidente de la junta directiva de TerraPower, empresa especializada en el diseño de SMR- se haya fijado en España para instalar los centros de datos de MS. ¿Y por qué?
Pues en mi opinión de experto de barra de bar, creo que eso se lo debemos a nuestros queridísimos vecinos del norte, alias franceses.
España, por latitud y extensión, tiene un enorme potencial de producción de energía renovable, especialmente solar.
Y Francia, continuando con su secular costumbre de fastidiar a España, sigue negándose a ampliar las interconexiones, eléctricas y gasísticas, que nos impide exportar toda esa energía al resto de Europa.
Así que, ¿qué mejor uso para toda esa energía que gastarla in situ en Centros de Datos, esos que en otros países ya están causando problemas por su excesivo consumo eléctrico?
Totalmente de acuerdo, y lo de las interconexiones solo se puede agravar si gana la ultraderecha que por definicion es proteccionista.
Habría que sobredimensionar la red y convertir a España en un referente en centro de datos y aprovechar la tesitura para pedir contraprestaciones para no perdernos esta vez la revolución de la IA.
.» ¿Somos capaces de imaginar cómo habría sido nuestra vida sin buscadores como Google, y la energía que habríamos consumido si hubiésemos tenido que ir a buscar a cada fuente toda esa información?» Sí, perfectamente, CERO energía consumida porque nadie iría a buscar nada al estilo que se hace ahora. Eso lo viví yo en primera persona. Simplemente no sé necesitaba. La oferta crea la demanda. Y por eso cualquier persona gasta una cantidad de Kw/h descomunal comparado con hace 50 años, sin ir más lejos.