ChatGPT: essere gentili nelle interazioni con l'IA potrebbe avere ripercussioni sul pianeta e costare un sacco di soldi

Essere gentili con gli strumenti di intelligenza artificiale potrebbe non essere una cosa innocente. Il costo energetico di frasi così piccole, moltiplicato per milioni, avrebbe un forte impatto sull'ambiente. Un dibattito inaspettato che è già in corso.

Intelligenza Artificiale
Utilizzare un tono cortese quando si interagisce con gli strumenti di Intelligenza Artificiale (IA) comporterebbe un aumento dei costi energetici del sistema.

L'uso delle diverse tecnologie di intelligenza artificiale sta crescendo in modo esponenziale. Sia a livello lavorativo o più aziendale, sia nell'uso personale quotidiano. Ed è proprio in quest'ultimo ambito che molte persone, quando interagiscono con strumenti come ChatGPT, includono nei loro dialoghi saluti come se stessero parlando con una persona. Per loro non manca mai un "ciao" o un "grazie" alla fine.

"Usare un linguaggio cortese definisce il tono della risposta quando si interagisce con strumenti di Intelligenza Artificiale (IA)", spiega Kurtis Beavers, capo del design di Microsoft.

Ma questa manifestazione di educazione, moltiplicata per milioni di volte, smette di essere un dettaglio trascurabile e apre un altro interrogativo, come solleva Gizmodo: un semplice gesto di buona educazione può avere un impatto ambientale? E, anche se sembra incredibile, la risposta in questa era dell'intelligenza artificiale è un deciso sì.

Questo rende evidente che essere gentili con un'IA potrebbe contribuire, anche se minimamente, al consumo di risorse preziose come elettricità e acqua potabile.

La verità è che, ogni volta che un utente invia un saluto o una frase cortese a strumenti come ChatGPT, sia che dica "ciao", "per favore" o "grazie", il sistema non si limita a interpretare il messaggio, ma attiva una serie di processi computazionali che richiedono energia. Strumenti come lo stesso ChatGPT o Gemini utilizzano server distribuiti in centri dati che operano costantemente.

Il costo dell'essere gentili

In dichiarazioni riportate da The Manhattan Times, il CEO di ChatGPT Sam Altman ha detto che “le persone che aggiungono "per favore" e "grazie" nei messaggi all'IA stanno facendo aumentare i costi”. Tuttavia, Altman non vuole eliminare le buone maniere, aggiungendo che sono "decine di milioni di dollari ben spesi".

Non si sa mai". Questo dibattito, che sembra minimo, è quello che molti oggi si permettono: e se un domani le macchine avessero la capacità di prendere decisioni indipendenti in base a come sono state trattate in passato?

Sam Altman
Sam Altman, CEO di ChatGPT, ritiene che l'uso di frasi di cortesia stia aumentando i costi del processo, ma non sembra vederlo come un problema.

Può sembrare assurdo essere cortesi con un chatbot, ma alcuni sviluppatori di IA sostengono che sia davvero importante. Kurtis Beavers, capo del design di Microsoft, per esempio, crede che la cortesia "aiuti a generare risultati rispettosi e collaborativi”.

“Usare un linguaggio cortese definisce il tono della risposta”, spiega Beavers. E ha una sua logica: ciò che chiamiamo “intelligenza artificiale” è in realtà un motore di predizione estremamente avanzato: immagina un testo predittivo, ma potenziato per formare frasi complete in base al contesto.

"Quando rileva cortesia, è più probabile che risponda con cortesia", afferma un memorandum di WorkLab di Microsoft. "L'IA generativa riflette anche i livelli di professionalità, chiarezza e dettaglio nelle indicazioni fornite".

Un sondaggio condotto alla fine del 2024 ha rivelato che il 67% degli americani ha dichiarato di essere cortese quando parla con i chatbot. Tra loro, il 55% ha detto che lo fa perché "pensa che sia la cosa giusta", mentre il 12% ha confessato di voler mantenere un buon rapporto in caso di un disastro provocato dall'IA.

Un dibattito impensabile

Dall'altro lato c'è il tema del consumo e dell'impatto ambientale. Questi server non solo consumano elettricità durante le loro operazioni, ma devono anche mantenere temperature stabili per evitare il surriscaldamento del sistema.

Come fanno? Spesso usando sistemi di raffreddamento che, in molti casi, impiegano grandi quantità di acqua potabile. Per questo motivo milioni di piccole interazioni quotidiane sommate rappresentano un impatto ambientale significativo.

Non si tratta di vietare la cortesia, ma di prendere coscienza del suo effetto cumulativo. Come accade con il consumo di plastica o lo spreco domestico, ogni piccolo gesto conta.

Alcuni studi recenti hanno dimostrato che i modelli di linguaggio di grande scala richiedono enormi quantità di energia e acqua per funzionare correttamente. In molti centri dati, soprattutto in climi caldi, si utilizza acqua per raffreddare l'hardware tramite sistemi di refrigerazione liquida. Per questo motivo molti ritengono necessario trasferire questo tipo di grandi server in climi più freddi, con accesso ad acqua riciclabile.

Per questo motivo, al di là del funzionamento interno dell'IA, l'accumulo di risposte “non necessarie” ha un costo ambientale doppio: energia per l'elaborazione e acqua per il raffreddamento. Alcuni esperti hanno avvertito che se l'uso di queste IA cresce senza consapevolezza dell'impatto, anche abitudini più innocenti potrebbero causare un carico ambientale significativo.