Dall'AGI all'ASI. Cosa succederà quando l’uomo non sarà più l’essere più intelligente del pianeta?

Siamo ormai prossimi ad una svolta epocale: l’avvento di AGI e ASI non è più fantascienza, ma una realtà vicina e per alcuni addirittura imminente. Studiare, comprendere il passaggio a un’intelligenza superiore alla nostra è cruciale, perché potrebbe avvenire molto più rapidamente di quanto previsto, con conseguenze ancora largamente ignote.

Creando una super-intelligenza, potremmo diventare una specie subordinata alle scelte di un'entità più intelligente, che non potremmo più riuscire a contenere o influenzare correttamente.
Creando una super-intelligenza, potremmo diventare una specie subordinata alle scelte di un'entità più intelligente, che non potremmo più riuscire a contenere o influenzare correttamente.

Il progresso tecnologico in continua accelerazione ci ha abituato a cambiamenti rapidissimi, ma ciò che stiamo affrontando oggi è un salto di paradigma. Siamo alle soglie di una trasformazione epocale che potrebbe ridefinire il concetto stesso di vita intelligente sulla Terra.

Per comprendere la portata della sfida e restare ancorati alla realtà, è necessario distinguere tra gli strumenti che utilizziamo oggi e ciò che si profila all'orizzonte. Attualmente stiamo utilizzando quella che gli esperti definiscono Intelligenza Artificiale Debole, cioè sistemi capaci di eccellere in compiti circoscritti, come la diagnostica medica, l'analisi finanziaria, la traduzione di una lingua, la sintesi o la scrittura di un testo o anche il riconoscimento di un volto.

Ma la vera rivoluzione arriverà con l'Intelligenza Artificiale Generale (AGI). Un’AGI non sarà un software settoriale, ma un sistema con la flessibilità cognitiva per apprendere e risolvere qualsiasi problema intellettuale al pari di un essere umano, dimostrando una capacità di ragionamento trasversale su scala globale.

L’esplosione dell’intelligenza e la nascita dell'ASI

Il rischio concreto non risiede solo nel raggiungimento della parità con l'uomo, ma nella successiva transizione verso la Superintelligenza Artificiale (ASI). Si tratterà di un’entità capace di superare l'intelligenza umana in ogni campo, dalla ricerca scientifica alla strategia logistica.

Un’AGI non sarà un software settoriale, ma un sistema con la flessibilità cognitiva per apprendere e risolvere qualsiasi problema intellettuale al pari di un essere umano, dimostrando una capacità di ragionamento trasversale su scala globale.
Un’AGI non sarà un software settoriale, ma un sistema con la flessibilità cognitiva per apprendere e risolvere qualsiasi problema intellettuale al pari di un essere umano, dimostrando una capacità di ragionamento trasversale su scala globale.

Il passaggio dall'AGI all'ASI potrebbe essere molto rapido a causa di un fenomeno che il Dr. Roman Yampolskiy definisce auto-ottimizzazione ricorsiva. Una macchina capace di comprendere e modificare il proprio codice inizierebbe a correggere i propri errori e a potenziare la propria velocità di calcolo, innescando un ciclo di crescita che sfuggirebbe rapidamente alla supervisione e comprensione umana.

Il problema dell’allineamento e la metafora degli scoiattoli

Uno dei concetti più delicati da trasmettere è che il pericolo non deriva da una presunta "cattiveria" della macchina, ma dalla sua estrema efficacia. È il cosiddetto problema dell'allineamento. Eliezer Yudkowsky, tra i massimi esperti di sicurezza dell'IA, illustra questo divario di potere attraverso la metafora degli scoiattoli, animali astuti nel loro habitat ma facilmente sopraffatti dagli umani.

Se gli esseri umani decidono di costruire un'autostrada sopra il loro bosco, gli scoiattoli vengono spazzati via. Non per odio, ma perché l'uomo opera su un livello di complessità in cui la loro esistenza è semplicemente irrilevante rispetto all'obiettivo.

Sulla stessa linea il celebre astrofisico Stephen Hawking ammoniva che il vero rischio dell'IA non è "il rancore", ma l'indifferenza. Egli utilizzava l'esempio del formicaio sacrificato senza alcuna esitazione, difronte ad una qualunque necessità umana.

Il rischio è che l'umanità si trovi nella posizione degli scoiattoli o delle formiche di fronte a obiettivi globali di una ASI.

La perdita del primato e la lezione dei gorilla

Questa inversione della gerarchia di potere è stata descritta con efficacia anche da Stuart Russell attraverso l'esempio dei gorilla. Creature fisicamente molto più forti degli esseri umani, il loro destino biologico dipende però interamente dalle nostre decisioni.

L'immagine è quella di uno zoo rovesciato, dove non siamo noi a osservare gli animali, ma siamo noi gli animali, custoditi da qualcosa che abbiamo costruito con le nostre mani.
L'immagine è quella di uno zoo rovesciato, dove non siamo noi a osservare gli animali, ma siamo noi gli animali, custoditi da qualcosa che abbiamo costruito con le nostre mani.

Creando una super-intelligenza, rischiamo di trovarci nella stessa posizione: una specie la cui sopravvivenza non dipende più dalla propria forza o volontà, ma dalle scelte di un'entità più intelligente, che non potremmo più contenere né influenzare.

L'uomo addomesticato: il rischio dell'irrilevanza

Anche nello scenario più ottimistico, con una ASI benevola, l'umanità rischierebbe di trovarsi nella condizione degli animali domestici: mantenuti, accuditi e perfino viziati, ma privati di scopo. Senza sfide proporzionate alle nostre capacità, senza conquiste che siano davvero nostre, il senso stesso dell'esistere umano potrebbe svuotarsi.

È quello che alcuni filosofi chiamano il rischio della domesticazione cognitiva: non la morte, ma l'irrilevanza. L'immagine è quella di uno zoo rovesciato, dove non siamo noi a osservare gli animali, ma siamo noi gli animali, custoditi da qualcosa che abbiamo costruito con le nostre mani.

Verso una governance globale e consapevole

In un mondo in cui l'informatica è ovunque e controlla tutto, dove la robotica è in rapida crescita, la prudenza dovrebbe essere la priorità.

Staccare la spina potrebbe non essere così semplice e scontato, ma potrebbe essere perfino impedito.

La corsa globale verso l'AGI è spinta da incentivi economici e interessi militari senza precedenti, che spesso mettono in secondo piano la ricerca sulla sicurezza. E' convinzione diffusa che il paese che avrà per primo l'AGI non avrà più rivali.

In un mondo in cui l'informatica è ovunque e controlla tutto in modo sempre più "intelligente", dove la robotica è in rapida crescita e diffusione, la prudenza dovrebbe essere la priorità. Staccare la spina potrebbe non essere così semplice, immediato e scontato, ma potrebbe esserci perfino impedito.
In un mondo in cui l'informatica è ovunque e controlla tutto in modo sempre più "intelligente", dove la robotica è in rapida crescita e diffusione, la prudenza dovrebbe essere la priorità. Staccare la spina potrebbe non essere così semplice, immediato e scontato, ma potrebbe esserci perfino impedito.

Nel 2025, un consorzio internazionale di ricercatori e leader ha già lanciato un appello per definire "linee rosse" globali per l'IA , le soglie di rischio che, se superate, imporrebbero l'arresto immediato dello sviluppo. È un segnale che la consapevolezza cresce, ma non abbastanza in fretta.

Senza una governance internazionale condivisa e protocolli di allineamento che rendano i valori umani parte integrante e inamovibile del codice sorgente, il progresso potrebbe trasformarsi in una trappola esistenziale.

La sfida di oggi non è dunque quella di fermare l'innovazione, ma garantire che la prima super-intelligenza sia, per sua stessa natura, custode e non indifferente al rispetto della vita umana.

Una super intelligenza favorevole potrebbe fornire all'umanità molte soluzioni in materia di salute, ambiente e convivenza pacifica che noi ancora non riusciamo nemmeno ad immaginare.

I legislatori e i politici dovrebbero trattare l'intelligenza artificiale non solo come un'opportunità commerciale, ma anche e soprattutto come la sfida più complessa ed importante della storia dell'umanità.

Non perderti le ultime novità di Meteored e goditi tutti i nostri contenuti su Google Discover, completamente GRATIS

+ Segui Meteored