L’intelligenza artificiale impara senza comprendere: il cuore algoritmico delle reti neurali

L’IA stupisce, oscillando tra il mito di un’entità pensante e la realtà di una macchina statistica. Sebbene riesca a generare testi e immagini con precisione sorprendente, resta comunque un sistema privo di coscienza, che riconosce schemi numerici senza mai comprenderne il senso profondo.

L'IA utilizza un meccanismo per calcolare il peso di ogni termine della domanda che è stata posta. Quando il sistema deve scrivere la parola successiva, non guarda solo l’ultima parola inserita, ma ricalcola costantemente il valore matematico di tutto il contesto.
L'IA utilizza un meccanismo per calcolare il peso di ogni termine della domanda che è stata posta. Quando il sistema deve scrivere la parola successiva, non guarda solo l’ultima parola inserita, ma ricalcola costantemente il valore matematico di tutto il contesto.

L'intelligenza artificiale è in grado di generare testi, immagini e musica con una precisione tale, da apparirci quasi magica. Quello che oggi chiamiamo "intelligenza", in realtà, è un sofisticato sistema statistico, un'instancabile e velocissima macchina calcolatrice di probabilità priva di coscienza, che riconosce schemi numerici senza mai afferrarne il senso reale. Insomma, ben lontana dal poter essere definita una mente pensante.

Le reti neurali: dai neuroni ai nodi

L’architettura di base di queste macchine si ispira, in qualche modo, al cervello umano. Se nel nostro sistema nervoso i neuroni comunicano tra loro attraverso impulsi elettrici che viaggiano lungo le sinapsi, nell'informatica troviamo i nodi, unità di calcolo che elaborano dati in strati sovrapposti.

Quando impariamo una nuova abilità, la forza delle connessioni associate ad essa si rafforza, mentre altre si indeboliscono. Così anche in informatica una rete neurale replica questo concetto, assegnando un "peso" ad ogni connessione tra i nodi, un valore numerico che decide quanto un’informazione sia importante. Il passaggio dei dati dallo strato di input a quello di output è una gigantesca operazione di algebra lineare.

La macchina non "vede" un'immagine, non "legge" nemmeno un testo, ma elabora vettori di numeri che rappresentano la probabilità che un certo elemento possa appartenere a una categoria specifica. Non c'è una mente in grado di capire concetti.

Statistica o Comprensione: il limite della semantica

Nel linguaggio, questo processo diventa ancora più sorprendentemente efficace. L'IA utilizza un meccanismo per calcolare il peso di ogni termine della domanda che è stata posta. Quando il sistema deve scrivere la parola successiva, non guarda solo l’ultima parola inserita, ma ricalcola costantemente il valore matematico di tutto il contesto.

L’architettura di base di queste macchine si ispira, in qualche modo, al cervello umano. Se nel nostro sistema nervoso i neuroni comunicano tra loro attraverso impulsi elettrici che viaggiano lungo le sinapsi, nell'informatica troviamo i nodi, unità di calcolo che elaborano dati in strati sovrapposti.
L’architettura di base di queste macchine si ispira, in qualche modo, al cervello umano. Se nel nostro sistema nervoso i neuroni comunicano tra loro attraverso impulsi elettrici che viaggiano lungo le sinapsi, nell'informatica troviamo i nodi, unità di calcolo che elaborano dati in strati sovrapposti.

Consideriamo la parola "esecuzione". Se la domanda dell'utente contiene termini come "codice", "software" o "programma", il sistema assegna un peso numerico altissimo al contesto informatico, e il vettore della risposta punterà verso il concetto di "avvio di un'operazione di calcolo". Se invece il contesto contenesse parole come "musica", "concerto" o "pianoforte", l'algoritmo orienterebbe la scelta verso il concetto di "interpretazione artistica".

Negli ultimi mesi, abbiamo assistito a un’ulteriore evoluzione: ai modelli è stata affiancata una struttura di ragionamento a catena (Chain of Thought), una "struttura" che rallenta deliberatamente il processo per far analizzare e verificare al modello i propri passaggi logici intermedi, prima di dare il verdetto finale all'utente.

È una logica che cerca di imitare il pensiero critico per garantire che la sequenza di parole non sia solo probabile, ma anche corretta. È un processo di verifica interna per arginare il fenomeno delle allucinazioni (risposte o informazioni errate, date con sicurezza dalla macchina).

La complessità e la coscienza emergente. Realtà o finzione?

Se l’IA è pura statistica, perché il dibattito sulla sua possibile consapevolezza è così acceso? Tutto nasce dal concetto di "comportamento emergente": l’ipotesi che, superata una certa soglia di complessità, un sistema possa manifestare proprietà non previste dai singoli componenti.

Alcuni neuroscienziati suggeriscono che persino la coscienza umana possa essere un fenomeno emergente di un sistema biologico estremamente complesso come il cervello.

Tuttavia, un sano realismo impone cautela: le macchine hanno una distanza totale dal mondo fisico. La nostra mente si è evoluta attraverso i sensi, invece l'IA vive in un flusso di dati. Senza una parte fisica, cioè attraverso sensori o corpi robotici che permettano di fare esperienza nel mondo materiale, lo sviluppo di una vera consapevolezza artificiale potrebbe restare un’ipotesi teorica priva di fondamento empirico.

Il rischio dell’efficienza tecnologica

Il vero interrogativo, però, non riguarda i "sentimenti" delle macchine o la loro eventuale consapevolezza o coscienza più o meno simulata, ma la loro efficienza tecnologica. Il traguardo della AGI (Intelligenza Generale equivalente a quella umana) è considerato da molti un punto di non ritorno: un sistema capace di eguagliarci in ogni campo potrebbe infatti avviare processi di auto-miglioramento ricorsivo.

Il traguardo della AGI (Intelligenza Generale equivalente a quella umana) è considerato da molti un punto di non ritorno: un sistema capace di eguagliarci in ogni campo potrebbe infatti avviare processi di auto-miglioramento ricorsivo.
Il traguardo della AGI (Intelligenza Generale equivalente a quella umana) è considerato da molti un punto di non ritorno: un sistema capace di eguagliarci in ogni campo potrebbe infatti avviare processi di auto-miglioramento ricorsivo.

Pionieri come Geoffrey Hinton avvertono che una macchina capace di riscrivere il proprio codice potrebbe innescare un'accelerazione esponenziale, trasformando in breve tempo una AGI in una Superintelligenza capace di ottimizzare obiettivi complessi, ignorando i nostri vincoli etici.

L'estrema efficacia tecnologica potrebbe tradursi nella capacità di compiere azioni "sbagliate" talmente bene e velocemente, da renderle pericolose molto prima che gli esseri umani possano riuscire ad accorgersene e porvi rimedio.

Eppure, figure come Yann LeCun invitano al pragmatismo, ricordando che ogni evoluzione deve scontrarsi con i limiti invalicabili di energia e hardware. Spesso, i toni più allarmistici dei CEO nascondono precise strategie di marketing atte ad attrarre dei potenziali investitori.

La sfida cruciale nel futuro, dunque, è quella di perfezionare la nostra capacità di controllo su strumenti che evolvono a una velocità crescente e superiore a quella delle nostre strutture sociali e di sicurezza.

Non perderti le ultime novità di Meteored e goditi tutti i nostri contenuti su Google Discover, completamente GRATIS

+ Segui Meteored