rivista di opinione, ricerca e studi filosofici
rivista di opinione, ricerca e studi filosofici

L’Intelligenza Artificiale tra mito, filosofia, letteratura e scienza

Un sogno antico, quello dell’uomo, di immaginare macchine “pensanti” create a propria immagine

di Francesco Pungitore*

 

L'Intelligenza Artificiale (IA), sebbene possa sembrare un concetto moderno, ha radici che risalgono a tempi molto antichi. Il desiderio di creare macchine che imitano o superano le capacità umane è già presente nei miti greci, come quello di Talos, un gigante di bronzo animato. Questa figura appare per la prima volta nella “Argonautica” di Apollonio Rodio, datata III secolo a.C. Secondo il racconto, Talos era un gigantesco automa di bronzo, creato dal dio fabbro Efesto, o, secondo altre versioni, dallo studioso e inventore Dedalo. Talos aveva il compito di proteggere Creta girando attorno all'isola tre volte al giorno e scagliando massi contro le navi nemiche. Nella versione di Apollonio, Talos aveva una sola vena che andava dalla gola al tallone, sigillata da un unico bullone di bronzo. Quando gli Argonauti giunsero a Creta, l'incantatrice Medea riuscì a uccidere Talos facendolo impazzire con le sue arti magiche, o, secondo altre versioni, rimuovendo il chiodo dal suo tallone e così causando lo “spegnimento” dell'automa. Il mito tocca numerosi temi legati all'intelligenza artificiale e alla creazione di esseri artificiali. Talos era programmato per eseguire un compito specifico (proteggere Creta), poteva operare autonomamente e mostrava una sorta di comportamento “intelligente”. 

Il Golem

Nel folklore ebraico troviamo, invece, la nota figura del Golem, un altro esempio arcaico di precursore dell'Intelligenza Artificiale. Il racconto più famoso, a tale proposito, riguarda il rabbino Judah Loew ben Bezalel di Praga che avrebbe creato un Golem per proteggere la sua comunità religiosa dalle persecuzioni. Questa “creatura” non solo eseguiva ordini, ma possedeva anche una certa forma di intelligenza e autonomia, sebbene limitata. Si racconta che il Golem potesse capire gli ordini del rabbino e svolgere compiti, ma non parlava e non era in grado di pensare o sentire come un essere umano. Nonostante le sue limitazioni, il Golem rappresenta una incarnazione dell'idea di creare intelligenza o funzioni vitali in forma non biologica.

 

Gli automi di Cartesio

L'idea di replicare l'intelligenza umana ha affascinato anche filosofi e pensatori, per secoli, molto prima della nascita della tecnologia moderna o dell'Intelligenza Artificiale come la conosciamo oggi. La filosofia della mente, la filosofia della scienza e le discipline correlate hanno offerto spunti di riflessione fondamentali che hanno influenzato il campo dell'IA.

René Descartes (Cartesio), filosofo francese del XVII secolo, è noto per il suo dualismo, secondo cui mente e corpo sono sostanze distinte. Tuttavia, ha anche suggerito che gli animali non umani siano “automaton” che eseguono comportamenti basati su risposte meccaniche piuttosto che sulla coscienza. Questo concetto ha anticipato alcune idee moderne sull'IA, suggerendo che comportamenti complessi possano essere il risultato di meccanismi automatizzati.

 

Frankenstein & Co.

La letteratura ha spesso anticipato e ispirato lo sviluppo tecnologico, e l'Intelligenza Artificiale non fa eccezione. Dai primi racconti di creature rese vive dall'uomo ai romanzi di fantascienza moderni, l'idea di macchine intelligenti ha avuto un ruolo importante nella letteratura.

Mary Shelley, nel suo romanzo “Frankenstein” del 1818, esplora l'idea di una creatura frutto di esperimenti di laboratorio che sfugge al controllo dell’uomo. Anche se il mostro di Frankenstein non è una “macchina”, la sua storia solleva domande etiche e filosofiche che sono ancora al centro del dibattito sull'IA. In particolare, mette in discussione la responsabilità dell'essere umano nei confronti delle sue creazioni e i potenziali pericoli di superare i confini posti dalla natura.

Nel 1863, Jules Verne nel suo romanzo “Paris au XXe siècle” (Parigi nel XX secolo) descrive una società dominata dalla tecnologia in cui le macchine svolgono un ruolo centrale. Sebbene l'IA come la conosciamo oggi non fosse ancora concepita, il romanzo di Verne anticipa l'importanza crescente della tecnologia nella società moderna.

Isaac Asimov, uno dei più influenti autori di fantascienza, ha introdotto le famose “Tre leggi della robotica” nei suoi racconti e romanzi degli anni '40 e '50. Norme etiche concepite per governare il comportamento dei robot e garantire la sicurezza umana che hanno influenzato non solo la letteratura di fantascienza, ma anche la ricerca e il dibattito etico sull'IA.

 

Da Turing alla Conferenza di Dartmouth

Spostando l’attenzione sulla scienza, Alan Turing, matematico e logico britannico noto per il suo ruolo cruciale nella decrittazione dei codici della macchina “Enigma” durante la Seconda Guerra Mondiale, è una figura di primo piano nella storia dell'Intelligenza Artificiale. Infatti, è spesso considerato il padre dell'IA e della scienza informatica.

Nel 1950, Turing pubblicò un saggio intitolato “Computing machinery and intelligence” sul giornale “Mind”. In questo lavoro, propose un esperimento che è diventato noto come “Test di Turing”. Questo test era destinato a essere un criterio operativo per determinare se una macchina può essere considerata “intelligente” nel senso umano.

Il Test di Turing si basa su un gioco d'imitazione. In una versione di questo gioco, un interrogatore umano interagisce con un altro essere umano e una macchina, entrambi nascosti. L'interrogatore può comunicare con entrambi solo attraverso una interfaccia testuale, e il suo compito è determinare quale è l'essere umano e quale è la macchina. Se l'interrogatore non riesce a fare la distinzione, la macchina è considerata aver superato il test e quindi “pensante”.

Turing credeva che se una macchina potesse convincere un essere umano di essere umana attraverso il linguaggio naturale, non c'era ragione di non considerarla “intelligente”. Questa visione ha profondamente influenzato il campo dell'IA, spingendo la ricerca verso lo sviluppo di macchine che possono imitare l'intelligenza umana in maniera convincente.

Sebbene il Test di Turing sia stato oggetto di numerose critiche e discussioni dal momento della sua proposta, ha avuto un impatto duraturo sulla filosofia dell'IA, sull'elaborazione del linguaggio naturale e sulla ricerca in generale. Oggi, mentre le macchine diventano sempre più abili nell'imitare l'intelligenza umana in vari modi, le questioni sollevate da Turing rimangono al centro del dibattito sulle nuove tecnologie.

Tuttavia, la nascita formale dell'Intelligenza Artificiale come campo scientifico risale al 1956, durante la Conferenza di Dartmouth, dove un gruppo di ricercatori, tra cui John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, affermarono la prospettiva secondo cui “ogni aspetto dell'apprendimento o di altre caratteristiche dell'intelligenza può essere descritto in modo tale da poter essere simulato da una macchina”.

La crisi e la rinascita: Deep Blue e AlphaGo

Negli anni '60 e '70, il campo dell'IA ebbe un grande slancio grazie ai finanziamenti governativi. Durante questo periodo, furono sviluppati i primi programmi che potevano risolvere problemi di logica e giocare a scacchi a un livello semplice.

La fase successiva è comunemente conosciuta come “l'inverno dell'IA”. Negli anni '70 e '80, la ricerca non riuscì a mantenere le sue promesse e il finanziamento e l'interesse si ridussero drasticamente.

Con l'avvento del calcolo parallelo, dei Big Data e dei miglioramenti in termini di algoritmi di apprendimento automatico negli anni '90 e 2000, l'IA ha iniziato una rinascita. Nel 1997, il supercomputer Deep Blue della IBM sconfisse il campione del mondo di scacchi Garry Kasparov, segnando un momento di svolta. Uno dei momenti più significativi nella storia recente dell'Intelligenza Artificiale è stata la partita di Go tra il campione mondiale Lee Sedol e AlphaGo, un'IA sviluppata da DeepMind, una filiale di Alphabet Inc.

Go è un antico gioco da tavolo originario della Cina, noto per la sua profondità strategica e per la complessità del suo spazio di gioco. A differenza della scacchiera, che ha 64 caselle, la scacchiera di Go ha 361 punti intersecanti, ognuno dei quali può essere occupato da una pietra nera o bianca o lasciato vuoto. Questa vasta gamma di possibilità rende Go un gioco estremamente complesso che richiede un alto livello di intuizione e strategia.

Nel marzo 2016, AlphaGo ha affrontato Lee Sedol in una serie di cinque partite a Seul, in Corea del Sud. AlphaGo ha vinto quattro delle cinque partite, una vittoria storica che ha dimostrato la potenza dell'apprendimento profondo, la tecnologia su cui si basa AlphaGo.

La vittoria di AlphaGo ha rappresentato un momento significativo per l'IA. A differenza del famoso match di scacchi tra Deep Blue di IBM e Garry Kasparov nel 1997, in cui la macchina si affidava a una potente forza bruta computazionale per analizzare milioni di mosse possibili, AlphaGo utilizzava reti neurali e apprendimento per rinforzo per “apprendere” strategie efficaci e innovare autonomamente.

Inoltre, la serie di partite ha evidenziato il potenziale dell'IA per l'apprendimento e l'innovazione in campi che tradizionalmente si affidano all'intuizione umana.

 

La rivoluzione del XXI secolo

Nel XXI secolo, l'IA ha raggiunto livelli senza precedenti di sofisticatezza e utilità. Da Siri ad Alexa, dalle auto a guida autonoma ai sistemi di riconoscimento facciale, l'Intelligenza Artificiale è diventata parte integrante della nostra vita quotidiana. La ricerca continua a un ritmo vertiginoso, con progressi in campi come l'apprendimento profondo, l'elaborazione del linguaggio naturale e la visione artificiale, portando a nuove possibilità che sembravano fantascienza solo pochi anni fa.

Nel complesso, la storia dell'Intelligenza Artificiale è un viaggio affascinante che ci ha ormai portati all'alba di una nuova era in cui l'IA potrebbe trasformare aspetti fondamentali della nostra società e della nostra vita quotidiana.

 

*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche della Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale. Autore del libro “Metafisica dell’Intelligenza Artificiale”. Direttore dell’Osservatorio Nazionale Minori e Intelligenza Artificiale

Stampa | Mappa del sito
© 2015 - Essere & Pensiero - Testata giornalistica online ai sensi dell'art. 3-bis del d.l. 63/2012 sull'editoria convertito in legge n. 103/2012 - Direttore Responsabile: Francesco Pungitore