I timori attorno all’impatto ambientale di ChatGPT e delle nuove IA
Internet è responsabile di una quota piuttosto elevata delle emissioni globali di gas serra. Secondo uno studio della Royal Society del 2020, se il web fosse uno Stato sarebbe il quarto Paese più inquinante al mondo: il semplice invio di una mail comporta una produzione di anidride carbonica che va dai quattro ai cinquanta grammi (in base alla presenza o meno di allegati) e il consumo dei data center sparsi per il mondo rappresenta l’un per cento della domanda globale di energia.
Stupisce che nel marasma derivato dall’infatuazione collettiva per ChatGPT – l’intelligenza artificiale (IA) sviluppata da OpenAI e lanciata a novembre 2022, oracolo di Delfi dei tempi moderni – si sia parlato poco dell’impatto che tutti i modelli di IA hanno in termini ambientali. Probabilmente, perché il dato relativo all’inquinamento prodotto è piuttosto difficile da quantificare.
Se lo si chiede al diretto interessato formulando la domanda «tu inquini?» come input, per sua stessa ammissione si apprende che «l’utilizzo di energia elettrica per l’esecuzione può avere un impatto ambientale a seconda della fonte di energia utilizzata». Tuttavia, domandare la portata di questo impatto (per esempio su base oraria) produrrà sempre una risposta vaga: «Non esiste un valore preciso per la quantità di energia consumata da un modello di lingua come il mio in un’ora, in quanto dipende dalla configurazione del data center che lo ospita e dall’intensità del carico di lavoro».
Ma l’intelligenza artificiale ci tiene anche a precisare che «OpenAI sta lavorando per ridurre l’impatto ambientale dei suoi sistemi e sta esplorando modi per utilizzare fonti di energia rinnovabile». Buono a sapersi.
Qualcuno però ha tentato di andare più a fondo alla questione. In un thread su Twitter, il prof. Tom Goldstein del dipartimento di Informatica della University of Maryland ha provato a stimare il costo economico per far funzionare ChatGPT partendo da un calcolo: se ogni parola contenuta in una frase di risposta dell’IA richiede in media 350 millisecondi su un processore grafico (GPU) A100, ogni utente formula mediamente dieci domande a testa e gli utenti attivi sono circa un milione, allora le parole generate giornalmente sono 300 milioni.
Moltiplicando questa cifra per 350 millisecondi (0.35s) e dividendo per 3.600 (i secondi che compongono un’ora), si deduce che tutta l’infrastruttura di hosting che permette a ChatGPT di girare sui nostri computer lavora 29.167 ore in un giorno (ovviamente distribuite su più apparecchi).
Ciò si concretizza in un consumo energetico di 11.870 Kwh, che si traduce a sua volta in un impatto sull’ambiente di circa 3.82 tonnellate giornaliere di anidride carbonica. Più o meno quanto il consumo di un singolo individuo occidentale nell’arco di tre mesi. Il tweet risale a inizio dicembre 2022. Considerato il crescente successo di ChatGPT in tutto il mondo, il numero di utenti non avrà fatto che aumentare, portando il risultato del calcolo a un numero decisamente superiore.
Il calcolo di Goldstein è una stima ipotetica e approssimativa, che non tiene conto delle emissioni che sono state prodotte per il periodo di addestramento dell’Intelligenza artificiale (durato anni) o di quelle derivate dai dispositivi degli utenti che accedono a ChatGPT, tanto per fare due esempi.
In particolare, il primo di questi due punti merita un approfondimento. L’impatto ambientale derivato dal machine learning – il processo di apprendimento automatico attraverso cui le intelligenze artificiali si allenano, “masticando” dati su dati – è notevole. Non a caso, questo settore viene talvolta paragonato all’industria petrolifera: i dati, se raccolti ed elaborati, possono essere un bene incredibilmente redditizio ma anche inquinante, proprio come il petrolio.
In una recente pubblicazione, i ricercatori dell’Università del Massachusetts di Amherst hanno condotto un’analisi sul ciclo vitale per l’addestramento di diversi modelli di IA di grandi dimensioni, scoprendo che questa procedura può arrivare a generare anche più di 280 tonnellate di CO2.
Del resto, i set di dati utilizzati per addestrare simili algoritmi stanno diventando sempre più consistenti. GPT-2 (predecessore di ChatGPT) aveva 1,5 miliardi di parametri quando è stato introdotto nel 2019 e all’epoca era sembrata una rivoluzione. Per addestrare GPT-2 sono state necessarie decine di giorni e quantità oscene di petaflop (un petaflop corrisponde a mille trilioni di operazioni al secondo).
Il modello successivo, GPT-3, è salito a ben 175 miliardi di parametri e, inutile dirlo, ChatGPT l’ha superato a sua volta. Immaginate la potenza di calcolo necessaria per addestrarlo e la quantità di anidride carbonica prodotta (in un articolo su Medium.com, Kasper Groes Albin Ludvigsen l’ha quantificata in circa 522 tonnellate).
Oggi l’innovazione tecnologica nel campo dell’IA ha un prezzo in termini ambientali che, se le attuali tendenze di mercato continueranno, diventerà sempre più salato. Il progresso previsto in questo decennio sarà clamoroso, ma avrà una duplice faccia. Da un lato contribuirà a limitare le conseguenze della crisi in corso, ad esempio attraverso l’analisi e la modellazione dei dati legati alle emissioni di gas serra. Dall’altro, rappresenterà parte del problema stesso.
-
Dalla fantascienza a una realtà costruita dall’intelligenza artificiale
3 giorni fa
-
Le pompe di calore non sono “solo” più ecologiche, ma anche più convenienti
1 settimana fa
-
Il legame inequivocabile tra il cambiamento climatico e la siccità in Sicilia e Sardegna
2 mesi fa
-
La piaga dei curriculum taroccati con l’intelligenza artificiale
3 mesi fa
-
Il piano di Kristen Michal per decarbonizzare l’Estonia
3 mesi fa