Avevo visto l'articolo che segnali, citato qui: https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy/ E' impossibile verificare i consumi esposti, ameno così al volo. Come prima impressione mi sembra che il problema, più che stabilire se i consumi elettrici siano corretti o meno, sia relativo al come viene effettuato il calcolo delle emissioni di carbonio. Le emissioni di carbonio che derivano dall'energia elettrica dipendono dalle fonti primarie usate per produrre tale energia elettrica. Si parla di mix elettrico poichè sono di più tipi. Le grandi compagnie sono poco trasparenti proprio su questo. E' possibile infatti, con artifici contabili leciti, far figurare che si usa energia rinnovabile per la propria elettricità mentre si acquistano solo i relativi crediti. Ne parlo qui: https://www.rivistaenergia.it/2024/11/intelligenza-artificiale-data-center-e... Sintetizzo al massimo: il calcolo dell'energia richiesta dal singolo prompt non può essere fatta con grande precisione. Ma, anche se con forte indeterminazione, fornisce comunque l'idea di un qualcosa che, anche se piccolo, va moltiplicato per numeri enormi...Soprattutto visto che l'IA è sempre di più embedded ovunque. Dunque è un qualcosa di significativo, di cui occuparsi rispettando i requisiti non funzionali relativi alle prestazioni ed all'efficienza. Quando si passa poi al calcolo delle emissioni di carbonio il discorso cambia: il greenwashing delle Big Tech è fatto con arte e usando con disinvoltura artifici contabili leciti. A mio avviso conta avere coscienza dell'impatto ambientale di tutto il digitale, e non solo dell'IA. Se no si va fuori strada e si finisce per attribuire all'IA proprietà (anche se negative) che non ha! E' l'elaborazione che richiede elettricità (e dunque anche raffreddamento), sia che derivante da IA o meno. Scusate le semplificazioni estreme, forse un po' brutali. Giovanna Il giorno lun 25 ago 2025 alle ore 17:29 maurizio lana < maurizio.lana@uniupo.it> ha scritto:
questo comunicato Vahdat, Amin, e Jeff Dean. «Measuring the environmental impact of AI inference». Google Cloud blog. Consultato 24 agosto 2025. https://cloud.google.com/blog/products/infrastructure/measuring-the-environm... .
annuncia questo report: Elsworth, Cooper, Keguo Huang, David Patterson, Ian Schneider, Robert Sedivy, Savannah Goodman, Ben Townsend, et al. «Measuring the environmental impact of delivering AI at Google Scale». arXiv, 21 agosto 2025. https://doi.org/10.48550/arXiv.2508.15734.
il cui nucleo è (sarebbe) che
the median Gemini Apps text prompt uses 0.24 watt-hours (Wh) of energy, emits 0.03 grams of carbon dioxide equivalent (gCO2e), and consumes 0.26 milliliters (or about five drops) of water1 — figures that are substantially lower than many public estimates. The per-prompt energy impact is equivalent to watching TV for less than nine seconds.
At the same time, our AI systems are becoming more efficient through research innovations and software and hardware efficiency improvements. For example, over a recent 12 month period, the energy and total carbon footprint of the median Gemini Apps text prompt dropped by 33x and 44x, respectively, all while delivering higher quality responses.
metodologia e dati descritti nel report.
è credibile? Maurizio
------------------------------
la speranza è una forza che non lascia mai il futuro agli avversari ma lo rivendica per sé dietrich bonhoeffer, resistenza e resa
------------------------------ Maurizio Lana