di Francesco Pungitore*
Il Garante per la protezione dei dati personali ha imposto, oggi, una limitazione urgente a Hangzhou DeepSeek Artificial Intelligence e
Beijing DeepSeek Artificial Intelligence, società cinesi che gestiscono il chatbot DeepSeek. La motivazione? La risposta delle aziende alle richieste di chiarimenti sul trattamento
dei dati degli utenti italiani è stata giudicata “del tutto insufficiente” a garantire il rispetto del GDPR. Un copione già visto: nel 2023, analoghi provvedimenti furono presi contro OpenAI per
ChatGPT, senza però impedirne l’uso diffuso, grazie a semplici stratagemmi tecnici o alla riluttanza degli utenti a rinunciare a strumenti innovativi.
Limitazioni “a geometria variabile”
L’intervento del Garante, seppur legittimo nel principio, solleva interrogativi pratici. In un mondo interconnesso, blocchi territoriali sono facilmente elusi con VPN, reti private o account anonimi. Basti pensare a ChatGPT: nonostante le restrizioni, milioni di italiani hanno continuato a usarlo, spostando virtualmente la propria geolocalizzazione o accettando condizioni d’uso opache. La presunta “protezione” si trasforma così in un teatro burocratico, mentre i dati fluiscono comunque attraverso canali alternativi, spesso meno tracciabili.
Il paradosso dei dati: li difendiamo a parole, li regaliamo nei fatti
Il cuore del problema è più profondo: in un sistema tecnologico globale che si nutre di dati, ogni interazione online — dai social alle app — è una cessione volontaria o inconsapevole di informazioni. Mentre i governi inseguono regole nazionali, le big tech costruiscono infrastrutture transnazionali, sfruttando asimmetrie normative. L’Europa insiste sul GDPR come gold standard, ma utenti e aziende adottano logiche di convenienza: accettiamo cookie con un clic distratto, scarichiamo app senza leggere i termini, ignoriamo che i nostri dati alimentano algoritmi spesso opachi.
Censura o consapevolezza? La sfida (mancata)
della rivoluzione tecnologica
La domanda cruciale non è se bloccare DeepSeek o ChatGPT, ma come governare un’innovazione che avanza mentre i legislatori arrancano.
Limitare l’accesso ai servizi con provvedimenti emergenziali rischia di essere un atto simbolico, inefficace e persino controproducente: crea l’illusione del controllo, senza
affrontare il nodo educativo, etico e geopolitico. Serve invece un dibattito pubblico onesto: che dati vogliamo condividere? Quali garanzie pretendere dalle aziende, anche straniere? E come
bilanciare privacy e progresso, senza ridurci a spettatori passivi di una rivoluzione guidata da altri?
Il caso DeepSeek non è solo uno scontro tra privacy e intelligenza artificiale: è il sintomo di un’Europa tecnologicamente in difesa, che reagisce con divieti invece di proporre modelli alternativi. Finché useremo VPN per aggirare le regole e continueremo a cedere dati per comodità, ogni provvedimento resterà un bavaglio fragile, non una soluzione. [30.01.2025]
*giornalista professionista, docente di Filosofia, Storia, Psicologia, Scienze Umane e Tecniche di Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale. Direttore Tecnico dell’Osservatorio Nazionale Minori e Intelligenza Artificiale