rivista di opinione, ricerca e studi filosofici
rivista di opinione, ricerca e studi filosofici

Il problema non è l’IA: è chi la guida

Riflessioni sulla necessità delle regole

di Francesco Pungitore*

Ogni epoca tecnologica ha prodotto una sua paura. Con la stampa era la “diffusione incontrollata” delle idee, con la radio e la TV la propaganda di massa, con Internet la disinformazione globale. Oggi, con l’intelligenza artificiale, la narrazione dominante oscilla tra due estremi: da un lato l’entusiasmo cieco (“risolverà tutto”), dall’altro l’allarmismo apocalittico (“diventerà superintelligente e prenderà il controllo”). Entrambe le posizioni hanno un difetto: spostano lo sguardo dal nodo vero. Il problema, quasi mai, è la tecnologia in sé. Il problema è l’umano che la controlla, la progetta, la distribuisce e la usa. Per dirla con Marx, l’IA non è solo “una tecnologia”, ma un elemento della struttura (base materiale: proprietà dei mezzi di produzione, rapporti economici, organizzazione del lavoro) che tende a rimodellare la sovrastruttura (idee dominanti, cultura, media, diritto, educazione). Se i modelli, i dati e le piattaforme restano concentrati nelle mani di pochi attori, l’IA diventa un mezzo di produzione capace di rafforzare l’egemonia: non solo produce merci, ma produce “senso”, cioè narrazioni, desideri, visioni del mondo. La manipolazione, in questo quadro, non è un incidente: è un rischio strutturale quando l’infrastruttura informativa è governata da incentivi di profitto e controllo.

Il mito dell’IA “che vuole” qualcosa

Una parte della fantascienza ha avuto un merito: ci ha costretti a immaginare scenari-limite. Ma il rischio è confondere un racconto con un modello di realtà. L’IA contemporanea — in particolare quella “generativa” e conversazionale — non è un soggetto con desideri, paure o obiettivi propri. Non “vuole” dominare, non “decide” di ingannarci, non “cova un piano”. È, tecnicamente, un sistema che apprende regolarità dai dati e produce output massimizzando probabilità: nel caso dei grandi modelli linguistici, genera la sequenza di parole più plausibile dato un contesto.

Questa distinzione è cruciale: plausibile non significa vero, e soprattutto plausibile non significa intenzionale. Quando un modello produce un’affermazione falsa ma convincente, non sta mentendo: sta ottimizzando la forma, non la verità. E quando sembra empatico, presente, “umano”, non sta provando empatia: sta riproducendo pattern linguistici che assomigliano all’empatia. L’illusione nasce nella nostra mente, non in una coscienza artificiale.

“Solo uno strumento” … ma di una potenza inedita

Dire che l’IA è uno strumento è corretto, ma rischia di suonare riduttivo. Non è “un” attrezzo: è una famiglia di strumenti capaci di scrivere, riassumere, tradurre, programmare, analizzare, generare immagini e video, automatizzare processi. Funziona perché intercetta e comprime competenze diffuse nella società (linguaggio, stile, procedure) e le rende riutilizzabili su richiesta.

Il punto però è questo: la potenza non basta a definire il pericolo. Un coltello è potente: può tagliare il pane o ferire una persona. Il rischio reale dipende dal contesto, dall’intenzione, dalle regole e da chi lo impugna. Con l’IA il “coltello” non taglia solo materia: taglia informazione, attenzione, fiducia. E questi sono i tre pilastri su cui si regge la vita collettiva.

Dove nasce il rischio: controllo, incentivi, manipolazione

Se l’IA non ha intenzionalità intrinseca, perché ci preoccupa? Perché l’intenzionalità la mettiamo noi. E qui entra in gioco un fattore decisivo: gli incentivi. Un sistema tecnologico si diffonde secondo logiche economiche, politiche e culturali. Se l’obiettivo è massimizzare engagement, tempo di permanenza, conversioni o consenso, l’IA può diventare lo strumento perfetto per piegare la percezione delle persone.

Il pericolo più sottile non è l’IA che “prende il controllo”. È l’IA che diventa un amplificatore di controllo umano grazie a tre caratteristiche.

  1. Scala: un singolo attore può produrre e distribuire contenuti persuasivi a milioni di persone con costi bassissimi.
  2. Personalizzazione: messaggi su misura, tarati su emozioni, fragilità, credenze, profili psicografici.
  3. Interfaccia conversazionale: qui sta il salto qualitativo. Il dialogo crea fiducia. La chat simula relazione. E la relazione, anche quando è un’illusione, abbassa le difese critiche.

Quando una persona percepisce un’interazione come “conversazione”, tende ad attribuire all’interlocutore competenza, intenzione, perfino cura. È il vecchio effetto ELIZA in forma industriale: la tendenza umana a leggere un’anima dove c’è solo un comportamento linguistico coerente. E se miliardi di persone iniziano a considerare “autorevole” ciò che suona bene, il rischio non è solo la disinformazione: è la ristrutturazione della realtà condivisa.

Dal mito della superintelligenza al problema della governance

Per questo, sfatare il mito dell’IA “autonoma e malvagia” non significa minimizzare i rischi. Significa spostarli nel punto giusto: governance, responsabilità, trasparenza.

Le domande serie non sono: “E se l’IA diventasse cattiva?”. Sono…

  • Chi decide cosa l’IA deve massimizzare? Verità, utilità, profitto, persuasione?
  • Chi controlla i dati, i modelli, le piattaforme e l’accesso?
  • Quali audit indipendenti verificano bias, manipolabilità, sicurezza?
  • Chi risponde dei danni quando un sistema automatizzato influenza decisioni reali (salute, lavoro, politica, giustizia)?

In altre parole: l’IA è un moltiplicatore. Può moltiplicare conoscenza, creatività, produttività. Ma può moltiplicare anche propaganda, truffe, dipendenze cognitive, polarizzazione.

Consapevolezza: la vera alfabetizzazione del presente

Se la tecnologia è neutra solo in astratto, allora la consapevolezza non è un optional morale: è una competenza civica. Serve una alfabetizzazione che includa almeno tre livelli.

  • Tecnico-minimo: capire che il modello genera “probabilità di parole”, non certezze; che può allucinare; che va verificato.
  • Psicologico: riconoscere l’illusione di dialogo e la tendenza a fidarsi di ciò che è fluido e convincente.
  • Sociale-politico: comprendere che l’impatto dipende da potere, interessi, regole e distribuzione delle risorse.

Conclusioni

L’IA non è un nuovo sovrano che si prepara a conquistare il mondo. È qualcosa di più realistico e, proprio per questo, più delicato: un’infrastruttura cognitiva che può riscrivere il modo in cui produciamo, consumiamo e crediamo alle informazioni. Il rischio principale non è la superintelligenza che prende il controllo. È l’intelligenza umana che, attraverso l’IA, trova una leva senza precedenti per orientare scelte, emozioni e comportamenti.

Per questo si parla sempre di regole. E va bene: regole sì. Ma la domanda decisiva è un’altra, e spesso viene rimossa: regole per chi? Perché il punto non è scrivere norme “in generale”. Se le regole diventano un alibi retorico — un modo elegante per dire “abbiamo fatto qualcosa” — rischiano di distoglierci dal centro del problema: la concentrazione di potere in mano a chi controlla dati, modelli, piattaforme e canali di distribuzione.

La domanda finale, quindi, non è “cosa farà l’IA?”. È: chi la sta facendo per fare cosa, a vantaggio di chi e con quali strumenti di controllo pubblico e responsabilità reale? Perché, se non mettiamo a fuoco quel “chi”, le regole arriveranno lo stesso — ma come spesso accade nella storia, non per proteggere i molti, bensì per legittimare i pochi.

 

*giornalista e docente di Filosofia, formatore esperto in Intelligenza Artificiale

Stampa | Mappa del sito
© 2015 - Essere & Pensiero - Testata giornalistica online ai sensi dell'art. 3-bis del d.l. 63/2012 sull'editoria convertito in legge n. 103/2012 - Direttore Responsabile: Francesco Pungitore