di Francesco Pungitore*
L'Eurocamera ha dato il via libera all'AiAct in data 14 giugno 2023. Sul tavolo, un insieme di regole volte a garantire il rispetto delle leggi e dei valori fondamentali dell'UE nei confronti delle tecnologie come Chat Gpt, con il fine di contrastare la discriminazione digitale e prevenire la disinformazione e l'utilizzo dei “deep fakes”. La decisione è stata presa con 499 voti a favore, 28 contrari e 93 astenuti.
Il divieto delle tecnologie di riconoscimento biometrico
L'Europarlamento ha sostenuto il divieto totale di utilizzo di tecnologie di riconoscimento biometrico ad intelligenza artificiale in tempo reale nei luoghi pubblici. Un emendamento del Ppe che chiedeva l'inserimento nell'AiAct di alcune eccezioni per l'uso di telecamere di riconoscimento facciale nelle strade e ai confini dell'Ue per motivi di sicurezza nazionale o in casi di minori scomparsi, è stato bocciato.
Un approccio basato sul rischio
Le norme dell'AiAct seguono un approccio basato sul rischio, stabilendo obblighi per i fornitori e operatori dei sistemi di IA a seconda del livello di rischio che possono generare. Verranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale.
Divieti ampliati
L'elenco dei divieti è stato ampliato rispetto al testo iniziale, includendo l'uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori”in spazi pubblici, i sistemi di polizia predittiva, e l'estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale.
Classificazione delle applicazioni ad alto rischio
Il testo approvato dal Parlamento Europeo prevede che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media.
Obblighi per i sistemi di IA generativa
I sistemi di IA generativa, come ChatGPT, secondo l'AiAct, devono rispettare requisiti di trasparenza, dichiarando che il contenuto è stato generato dall'IA, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovranno anche essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d'autore utilizzati per l'addestramento.
IA e gestione delle frontiere
Dragos Tudorache (Renew) e Brando Benifei del Pd, relatori del testo sull'IA del Parlamento europeo, hanno sottolineato l'importanza di regolamentare l'uso dell'IA per la gestione delle frontiere, richiedendo trasparenza e valutazione dell'impatto sui diritti umani.
Valutazione e mitigazione dei rischi
I fornitori di modelli di base, un nuovo e in rapido sviluppo nel campo dell'IA, dovrebbero valutare e mitigare i possibili rischi per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo stato di diritto. Essi devono registrare i propri modelli nella banca dati dell'UE prima di immetterli sul mercato.
Promozione dell'innovazione e sostegno alle PMI
Per favorire l'innovazione dell'IA e sostenere le piccole e medie imprese, i deputati hanno aggiunto esenzioni per le attività di ricerca e i componenti dell'IA forniti con licenze open source, a codice sorgente aperto.
Istituzione di sandbox normativi
La nuova legge promuove i cosiddetti “sandbox normativi”, ovvero ambienti di vita reale istituiti dalle autorità pubbliche per testare l'Intelligenza Artificiale prima che venga implementata, in modo da garantire la sicurezza e il rispetto delle nuove normative.
Conclusioni
Sebbene l'AiAct rappresenti un passo importante verso la regolamentazione dell'Intelligenza Artificiale, adesso è necessario affrontare il tema della consapevolezza e della formazione nell'ambito dell'IA. Le norme possono fornire un quadro, ma è l'istruzione e la comprensione profonda dell'IA che favoriranno un utilizzo più responsabile e consapevole di queste tecnologie.
Sarebbe, quindi, importante introdurre delle linee-guida europee precise per le scuole, per far interagire gli studenti con le innovazioni tecnologiche. Questo non solo preparerà le generazioni future a vivere in un mondo sempre più digitale, ma creerà anche cittadini più consapevoli dell'impatto delle tecnologie IA sulla società.
L'interdisciplinarità dovrebbe essere la guida in questo processo, poiché permette un confronto tra diverse forme di sapere e favorisce un approccio olistico alla tecnologia. È necessario aprire le porte dei vari settori scientifico-disciplinari all'IA, permettendo di capire, interpretare e disciplinare la tecnologia attraverso una visione congiunta e collaborativa.
Inoltre, è cruciale riformare i modelli di formazione e di carriera universitaria per rispondere alle esigenze della società del futuro. Questo significherà integrare l'IA in vari settori di studio, non solo in quelli strettamente tecnologici, e promuovere la ricerca interdisciplinare.
In conclusione, mentre l'AiAct pone l'UE all'avanguardia nella regolamentazione dell'IA, è altrettanto importante promuovere una società consapevole e istruita in materia di IA. Solo attraverso un approccio olistico e interdisciplinare, possiamo sperare di sviluppare un sistema di Intelligenza Artificiale veramente sostenibile e rispettoso dei diritti umani.
*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche della Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale