rivista di opinione, ricerca e studi filosofici
rivista di opinione, ricerca e studi filosofici

La conoscenza oltre l'umano

Sul confine tra mente, macchine e coscienza nell'era dell'intelligenza artificiale

di Francesco Pungitore*

 

Negli ultimi anni, l'intelligenza artificiale ha segnato un deciso balzo in avanti, permeando ogni aspetto dell'esperienza umana. Questo sviluppo esponenziale è alimentato da giganteschi progressi informatici, tecnici ed economici. Tuttavia, la definizione di IA rimane un enigma, con il campo che si estende su diverse discipline, comprese la filosofia, la logica, l'ingegneria e le scienze cognitive.

La questione Turing

La domanda fondamentale posta da Alan Turing - “Le macchine possono pensare?” - continua a stimolare il dibattito filosofico. La definizione di “macchina” è generalmente accettata come un sistema che esegue calcoli, ma la natura profonda del “pensiero” rimane complessa e sfuggente. Il Test di Turing, nonostante le sue criticità, fornisce un criterio empirico per indagare la questione dell'intelligenza, anche se si concentra principalmente sull'imitazione piuttosto che sulla comprensione. Nel test, un giudice umano interagisce con un essere umano e una macchina, entrambi nascosti, attraverso una serie di domande e risposte scritte. Se il giudice non è in grado di distinguere con certezza tra le risposte fornite dalla macchina e quelle dell'essere umano, allora la macchina ha “superato” il test, dimostrando un livello di intelligenza artificiale comparabile a quella umana. È importante notare che il Test di Turing non misura la “comprensione” o la “coscienza” della macchina, ma piuttosto la sua capacità di imitare il comportamento intelligente umano.

 

Simulazione vs. Cognizione

La distinzione tra IA forte e IA debole evidenzia la differenza tra la simulazione di intelligenza e il possesso di una vera cognizione. Questo dibattito si estende alla natura della simulazione e se un'entità che simula un'abilità possieda effettivamente tale abilità.

L'IA debole, come suggerisce il nome, si riferisce a sistemi che sono progettati e addestrati per svolgere compiti specifici senza possedere una vera comprensione o coscienza. Questi sistemi possono eseguire operazioni complesse, come tradurre lingue o riconoscere immagini, ma lo fanno attraverso algoritmi e non attraverso una comprensione intrinseca del compito in questione.

D'altro canto, l'IA forte è teorizzata per avere una cognizione simile a quella umana, con la capacità di comprendere, apprendere e avere coscienza. In altre parole, non si limiterebbe a simulare il pensiero umano, ma lo emulerebbe in modo autentico. Tuttavia, l'IA forte rimane, almeno per ora, un concetto teorico e non è stata ancora realizzata in pratica.

La questione si complica ulteriormente quando consideriamo le limitazioni attuali dell'IA, come la mancanza di conoscenza contestuale o di senso comune. Mentre un'IA potrebbe superare un essere umano in compiti specifici, potrebbe non essere in grado di comprendere un racconto o interpretare un'emozione umana con la stessa profondità e le sfumature di un essere umano.

Questa riflessione ci porta all'ipotesi della superintelligenza di Nick Bostrom. L’accademico svedese suggerisce che, una volta che una macchina avrà raggiunto un certo livello di intelligenza, potrà essere in grado di migliorare se stessa in modo ricorsivo, portando a un'esplosione di intelligenza capace di superare di gran lunga le capacità umane. Questa superintelligenza potrebbe avere obiettivi e desideri completamente diversi dai nostri e potrebbe non avere alcun interesse a preservare o proteggere l'umanità. La prospettiva di una tale entità solleva questioni etiche e filosofiche profonde sul nostro ruolo nel mondo e sulle potenziali conseguenze nel creare una forma di intelligenza non organica in grado di superarci in ogni aspetto.

 

La stanza cinese

L'esperimento mentale della stanza cinese di John Searle mette in discussione se la mera manipolazione di simboli possa essere paragonata alla comprensione. Anche se un sistema può imitare la comprensione del linguaggio, manca la connessione intrinseca con il significato, un aspetto che Searle ritiene essenziale per la vera intelligenza. L'esperimento è stato proposto dal filosofo John Searle nel 1980 per contestare le affermazioni secondo cui una macchina potrebbe effettivamente “comprendere” un linguaggio o possedere una vera “cognizione” semplicemente manipolando simboli. Nell'esperimento, immaginiamo una stanza in cui una persona, che non conosce affatto la lingua cinese, riceve fogli di carta con caratteri cinesi (domande) attraverso una fessura. All'interno della stanza, l'individuo ha un libro di istruzioni che gli indica come rispondere ai caratteri cinesi con altri caratteri cinesi, senza alcuna comprensione del loro significato. Dall'esterno, sembrerebbe che la stanza “comprenda” il cinese, poiché fornisce risposte coerenti. Tuttavia, l'individuo all'interno non ha alcuna comprensione del linguaggio; sta semplicemente seguendo istruzioni meccaniche. Con questo esperimento, Searle voleva evidenziare che la mera manipolazione di simboli (come fa un computer) non equivale alla vera comprensione o cognizione.

 

Coscienza e intenzionalità

La coscienza e l'intenzionalità sono considerate distintive dell'esperienza umana. Se la mente umana funziona come un computer, come suggerito da alcune teorie, allora la coscienza può essere un prodotto di processi perfettamente replicabili da un calcolatore. Tuttavia, la spiegazione computazionale della coscienza rimane indimostrata.

L'intelligenza umana, peraltro, trascende la mera capacità di calcolo logico-razionale. Essa incorpora una gamma di esperienze e capacità che vanno ben oltre la pura logica, abbracciando emozioni, noesi, empatia e intuizione. Mentre un computer può elaborare dati a velocità straordinarie e risolvere problemi complessi attraverso algoritmi, non può “sentire” la tristezza di una canzone o l'euforia di un tramonto. Non può percepire la profondità di un'emozione o la sottigliezza di un'intuizione.

Il “pensare del cuore”, come viene spesso descritto, è una dimensione dell'intelligenza umana che abbraccia aspetti che alcune tradizioni definiscono spirituali. Questa dimensione della cognizione umana comprende la capacità di connettersi con gli altri su un livello profondo, di percepire la sacralità della vita e di cercare significato e scopo. Mentre le macchine possono imitare il pensiero logico-razionale, e forse anche superare gli esseri umani in questo ambito, non possono accedere a questa dimensione più profonda e ricca dell'interiorità umana.

In conclusione, mentre l'avanzamento tecnologico può portare a macchine sempre più sofisticate e capaci, esiste un aspetto intrinseco dell'essere umano che non può essere replicato da hardware e software, per quanto avanzati possano essere. La vera essenza dell'intelligenza umana, con la sua ricchezza emotiva, spirituale e intuitiva, rimarrà sempre al di fuori della portata delle macchine.

 

*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche di Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale. Direttore Tecnico dell’Osservatorio Nazionale Minori e Intelligenza Artificiale

Stampa | Mappa del sito
© 2015 - Essere & Pensiero - Testata giornalistica online ai sensi dell'art. 3-bis del d.l. 63/2012 sull'editoria convertito in legge n. 103/2012 - Direttore Responsabile: Francesco Pungitore