di Francesco Pungitore*
In un'era ormai definita dalla corsa globale all'innovazione tecnologica, l'Unione Europea si propone di modellare il futuro dell'intelligenza artificiale attraverso l'introduzione dell'AI Act. Il regolamento, approvato lo scorso 14 marzo, mira a disciplinare lo sviluppo e l'uso dell'IA all'interno dei confini UE. Tuttavia, dietro le nobili intenzioni si nasconde un intricato groviglio burocratico che rischia di soffocare l'innovazione piuttosto che promuoverla, lasciando l'Europa a rincorrere gli avversari americani e cinesi in un campo dove la velocità di esecuzione è tutto.
Obblighi e restrizioni
L'AI Act, con il suo encomiabile obiettivo di garantire la tutela della salute, della sicurezza e dei diritti fondamentali, si presenta come un pionieristico tentativo di regolamentazione globale dell'IA, classificando i sistemi in base al rischio potenziale piuttosto che alla tecnologia in sé. Questa normativa, tuttavia, introduce una serie di obblighi e restrizioni che sollevano preoccupazioni sull'agilità con cui le aziende europee potranno navigare in questo nostro futuro digitale.
Oneri contro le startup
Nonostante l'intenzione di promuovere un utilizzo etico e sicuro dell'intelligenza artificiale, l'AI Act sembra riflettere la consueta predilezione europea per l'eccessiva regolamentazione. La necessità per i produttori di sistemi ad alto rischio di elaborare una documentazione tecnica estremamente dettagliata, istituire sistemi di gestione del rischio e della qualità aggiornati periodicamente e monitorare post-vendita l'IA, rappresenta un onere non trascurabile. Questo complesso carico burocratico potrebbe disincentivare l'innovazione, in particolare per le piccole e medie imprese e le startup, che sono il motore dell'innovazione tecnologica.
Nuova burocrazia
Inoltre, l'architettura di governance delineata dall'AI Act, con la creazione di nuove strutture come l'AI Office e l'European Artificial Intelligence Board, aggiunge ulteriori strati di complessità amministrativa. Se da un lato tali organismi sono concepiti per guidare e armonizzare l'applicazione della normativa, dall'altro lato sollevano dubbi sulla loro effettiva capacità di adeguarsi alla velocità con cui evolve la tecnologia dell'IA.
Nella selva delle authority
L'AI Act rappresenta un tentativo ambizioso di affrontare le sfide poste dall'IA, ma il rischio è che l'Europa si perda in una selva di commissioni e authority, mentre altrove nel mondo l'innovazione procede a passi da gigante e a suon di investimenti miliardari. La critica principale non riguarda tanto la necessità di regolamentare - obiettivo condivisibile data la portata potenzialmente trasformativa dell'IA - quanto piuttosto il modo in cui si è scelto di farlo. La regolamentazione dovrebbe essere un faro che guida lo sviluppo tecnologico, non un freno che ne rallenta l'andatura.
L’agilità che manca
In conclusione, se l'Europa intende veramente competere sul palcoscenico mondiale dell'innovazione in IA, dovrà trovare un equilibrio tra la tutela dei diritti e la promozione dell'innovazione. La sfida sarà quella di adattare l'AI Act e le sue future implementazioni in modo che favoriscano un ambiente dinamico e flessibile, capace di stimolare la ricerca e lo sviluppo nell'IA, anziché ingabbiarli in un busto burocratico. In caso contrario, l'Europa rischia di restare a guardare mentre altri scrivono il futuro dell'intelligenza artificiale.
*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche di Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale. Direttore Tecnico dell’Osservatorio Nazionale Minori e Intelligenza Artificiale