IA: "siamo un po' spaventati", ha avvertito il creatore di ChatGPT

Sam Altman, CEO di OpenAI, ha avvertito che l'umanità deve essere preparata alle conseguenze negative dell'IA. Disinformazione e attacchi informatici, le preoccupazioni principali.

IA ChatGPT
ChatGPT, il potente strumento di Intelligenza Artificiale che sta rivoluzionando il mondo.

L'intelligenza artificiale (AI, in inglese, o IA in italiano) è ancora una volta al centro della scena mondiale, con il recente arrivo del modello linguistico GPT-4, l'ultima versione di ChatGPT. Il nuovo strumento stupisce per la sua capacità, ma pone anche grandi dilemmi affrontati dal suo stesso creatore, Sam Altman, attuale CEO della società OpenAI.

In una recente intervista con il media americano ABC News, Altman ha riconosciuto che c'è un grande potenziale ancora da sviluppare, ma che questa tecnologia potrebbe portare pericoli reali per l'umanità.

“Dobbiamo stare attenti e allo stesso tempo capire che è inutile avere tutto in un laboratorio. È un prodotto che dobbiamo diffondere e che entra in contatto con la realtà e presenta errori finché i rischi sono bassi. Detto questo, penso che la gente dovrebbe essere contenta del fatto che abbiamo un po' paura di questo. Se potessi dire che non mi spaventa, non dovresti fidarti di me".

Disinformazione e attacchi informatici, le principali preoccupazioni di Altman

Il CEO di OpenAI aveva precedentemente espresso i suoi timori in un post pubblicato sul suo account Twitter personale. In questa occasione, ha indicato che la sua principale preoccupazione è che l'intelligenza artificiale come ChatGPT possa essere utilizzata per generare contenuti con l'obiettivo di disinformare le persone.

"Sono particolarmente preoccupato che questi modelli possano essere utilizzati per la disinformazione su larga scala. Ora che stanno migliorando nella scrittura di codici informatici, potrebbero essere utilizzati per attacchi informatici offensivi", ha affermato nell'intervista.

Sam Altman CEO impresa OpenAI
Sam Altman, attuale CEO della società OpenAI.

D'altra parte, Altman ha ritenuto che la capacità di questi strumenti di scrivere codice in vari linguaggi di programmazione potesse creare rischi per la sicurezza informatica. "Ora che hanno migliorato le loro capacità di programmazione, potrebbero essere utilizzate per eseguire attacchi informatici più aggressivi", ha affermato.

Tuttavia, Altman ha riflettuto: "Questo è uno strumento che è in gran parte sotto il controllo umano". In questo senso, ha osservato che GPT-4 "aspetta che qualcuno gli dia un input", e ciò che è veramente preoccupante è chi ha il controllo di quegli input.

L'umanità ha bisogno di tempo per adattarsi all'Intelligenza Artificiale

Altman ha assicurato che nonostante tutti i cambiamenti che possono essere generati grazie al progresso della tecnologia dell'intelligenza artificiale possano essere considerati positivi, l'umanità ha bisogno di tempo per adattarsi ad essi. Ha insistito sul fatto che OpenAI deve anche svolgere questo processo di adattamento per correggere l'uso inappropriato o le conseguenze dannose che questo tipo di sistema può avere.

“Sicuramente apporteremo correzioni nello stesso momento in cui si verificano questi eventi negativi. Ora che i rischi sono bassi, stiamo imparando il più possibile e stabilendo feedback costanti per migliorare il sistema ed evitare gli scenari più pericolosi”, ha assicurato l'amministratore delegato dell'azienda.