di Francesco Pungitore*
Ogni epoca tecnologica ha prodotto una sua paura. Con la stampa era la “diffusione incontrollata” delle idee, con la radio e la TV la propaganda di massa, con Internet la disinformazione globale. Oggi, con l’intelligenza artificiale, la narrazione dominante oscilla tra due estremi: da un lato l’entusiasmo cieco (“risolverà tutto”), dall’altro l’allarmismo apocalittico (“diventerà superintelligente e prenderà il controllo”). Entrambe le posizioni hanno un difetto: spostano lo sguardo dal nodo vero. Il problema, quasi mai, è la tecnologia in sé. Il problema è l’umano che la controlla, la progetta, la distribuisce e la usa. Per dirla con Marx, l’IA non è solo “una tecnologia”, ma un elemento della struttura (base materiale: proprietà dei mezzi di produzione, rapporti economici, organizzazione del lavoro) che tende a rimodellare la sovrastruttura (idee dominanti, cultura, media, diritto, educazione). Se i modelli, i dati e le piattaforme restano concentrati nelle mani di pochi attori, l’IA diventa un mezzo di produzione capace di rafforzare l’egemonia: non solo produce merci, ma produce “senso”, cioè narrazioni, desideri, visioni del mondo. La manipolazione, in questo quadro, non è un incidente: è un rischio strutturale quando l’infrastruttura informativa è governata da incentivi di profitto e controllo.
Il mito dell’IA “che vuole” qualcosa
Una parte della fantascienza ha avuto un merito: ci ha costretti a immaginare scenari-limite. Ma il rischio è confondere un racconto con un modello di realtà. L’IA contemporanea — in particolare quella “generativa” e conversazionale — non è un soggetto con desideri, paure o obiettivi propri. Non “vuole” dominare, non “decide” di ingannarci, non “cova un piano”. È, tecnicamente, un sistema che apprende regolarità dai dati e produce output massimizzando probabilità: nel caso dei grandi modelli linguistici, genera la sequenza di parole più plausibile dato un contesto.
Questa distinzione è cruciale: plausibile non significa vero, e soprattutto plausibile non significa intenzionale. Quando un modello produce un’affermazione falsa ma convincente, non sta mentendo: sta ottimizzando la forma, non la verità. E quando sembra empatico, presente, “umano”, non sta provando empatia: sta riproducendo pattern linguistici che assomigliano all’empatia. L’illusione nasce nella nostra mente, non in una coscienza artificiale.
“Solo uno strumento” … ma di una potenza inedita
Dire che l’IA è uno strumento è corretto, ma rischia di suonare riduttivo. Non è “un” attrezzo: è una famiglia di strumenti capaci di scrivere, riassumere, tradurre, programmare, analizzare, generare immagini e video, automatizzare processi. Funziona perché intercetta e comprime competenze diffuse nella società (linguaggio, stile, procedure) e le rende riutilizzabili su richiesta.
Il punto però è questo: la potenza non basta a definire il pericolo. Un coltello è potente: può tagliare il pane o ferire una persona. Il rischio reale dipende dal contesto, dall’intenzione, dalle regole e da chi lo impugna. Con l’IA il “coltello” non taglia solo materia: taglia informazione, attenzione, fiducia. E questi sono i tre pilastri su cui si regge la vita collettiva.
Dove nasce il rischio: controllo, incentivi, manipolazione
Se l’IA non ha intenzionalità intrinseca, perché ci preoccupa? Perché l’intenzionalità la mettiamo noi. E qui entra in gioco un fattore decisivo: gli incentivi. Un sistema tecnologico si diffonde secondo logiche economiche, politiche e culturali. Se l’obiettivo è massimizzare engagement, tempo di permanenza, conversioni o consenso, l’IA può diventare lo strumento perfetto per piegare la percezione delle persone.
Il pericolo più sottile non è l’IA che “prende il controllo”. È l’IA che diventa un amplificatore di controllo umano grazie a tre caratteristiche.
Quando una persona percepisce un’interazione come “conversazione”, tende ad attribuire all’interlocutore competenza, intenzione, perfino cura. È il vecchio effetto ELIZA in forma industriale: la tendenza umana a leggere un’anima dove c’è solo un comportamento linguistico coerente. E se miliardi di persone iniziano a considerare “autorevole” ciò che suona bene, il rischio non è solo la disinformazione: è la ristrutturazione della realtà condivisa.
Dal mito della superintelligenza al problema della governance
Per questo, sfatare il mito dell’IA “autonoma e malvagia” non significa minimizzare i rischi. Significa spostarli nel punto giusto: governance, responsabilità, trasparenza.
Le domande serie non sono: “E se l’IA diventasse cattiva?”. Sono…
In altre parole: l’IA è un moltiplicatore. Può moltiplicare conoscenza, creatività, produttività. Ma può moltiplicare anche propaganda, truffe, dipendenze cognitive, polarizzazione.
Consapevolezza: la vera alfabetizzazione del presente
Se la tecnologia è neutra solo in astratto, allora la consapevolezza non è un optional morale: è una competenza civica. Serve una alfabetizzazione che includa almeno tre livelli.
Conclusioni
L’IA non è un nuovo sovrano che si prepara a conquistare il mondo. È qualcosa di più realistico e, proprio per questo, più delicato: un’infrastruttura cognitiva che può riscrivere il modo in cui produciamo, consumiamo e crediamo alle informazioni. Il rischio principale non è la superintelligenza che prende il controllo. È l’intelligenza umana che, attraverso l’IA, trova una leva senza precedenti per orientare scelte, emozioni e comportamenti.
Per questo si parla sempre di regole. E va bene: regole sì. Ma la domanda decisiva è un’altra, e spesso viene rimossa: regole per chi? Perché il punto non è scrivere norme “in generale”. Se le regole diventano un alibi retorico — un modo elegante per dire “abbiamo fatto qualcosa” — rischiano di distoglierci dal centro del problema: la concentrazione di potere in mano a chi controlla dati, modelli, piattaforme e canali di distribuzione.
La domanda finale, quindi, non è “cosa farà l’IA?”. È: chi la sta facendo per fare cosa, a vantaggio di chi e con quali strumenti di controllo pubblico e responsabilità reale? Perché, se non mettiamo a fuoco quel “chi”, le regole arriveranno lo stesso — ma come spesso accade nella storia, non per proteggere i molti, bensì per legittimare i pochi.
*giornalista e docente di Filosofia, formatore esperto in Intelligenza Artificiale