di Francesco Pungitore*
Il fatto è noto: una recente controversia ha coinvolto la famosa attrice Scarlett Johansson e OpenAI, l’azienda leader nel campo dell'intelligenza artificiale. Oggetto del contendere, la voce del nuovo assistente vocale di ChatGPT. La Johansson ha pubblicamente accusato OpenAI di aver clonato la sua voce sul chatbot, ma senza il suo consenso, sollevando dubbi sull'etica dell'azienda e sulla trasparenza delle sue pratiche.
Sam Altman, CEO di OpenAI, ha confermato di aver cercato di coinvolgere l’attrice nel progetto, presumibilmente per sfruttare la sua riconoscibilità già consolidata grazie al film “Her”, ma poi ha precisato di aver utilizzato una doppiatrice professionista. Tuttavia, alla fine, l'azienda ha deciso di rimuovere la voce contestata, per evitare ulteriori controversie.
Nuove sfide
Il caso evidenzia sfide legate sia al copyright che all'uso dei deepfake, tecnologie che permettono la clonazione di voci e volti in modo sempre più realistico. L'utilizzo non autorizzato di caratteristiche personali per generare contenuti artificiali, la possibilità di replicare fedelmente la voce e il volto di un individuo senza il suo consenso, sollevano questioni legali ed etiche, rischi per la privacy e lesioni dei diritti.
Questo scenario evidenzia la necessità urgente di una regolamentazione chiara e rigorosa in materia di intelligenza artificiale e tecnologie correlate. È fondamentale stabilire delle linee guida precise che possano distinguere ciò che è originale da ciò che è generato dall'IA, prevenendo l'abuso di queste tecnologie. La creazione di un quadro normativo adeguato permetterebbe di sfruttare le potenzialità dell'intelligenza artificiale in modo etico e responsabile, garantendo al contempo il rispetto dei diritti fondamentali delle persone coinvolte.
Cosa fare?
Il primo passo è, certamente, quello di sviluppare e implementare leggi specifiche che regolamentino l'uso delle tecnologie di intelligenza artificiale, in particolare per quanto riguarda la clonazione di voci e volti. Tali leggi dovrebbero includere norme rigide sul consenso esplicito e informato da parte degli individui coinvolti. Inoltre, sarebbe utile creare un organismo di controllo indipendente che monitori l'uso delle IA e dei deepfake, garantendo che vengano rispettati i diritti di privacy e di immagine. Le aziende dovrebbero adottare politiche di trasparenza, rendendo pubbliche le metodologie utilizzate per la generazione di contenuti e dichiarando chiaramente quando si tratta di materiali sintetici. Infine, la collaborazione tra sviluppatori di IA, esperti legali e rappresentanti dei diritti civili potrebbe facilitare la creazione di linee guida etiche e tecniche, assicurando che l'innovazione tecnologica avvenga in un contesto di rispetto e responsabilità.
Ma…
Nonostante le proposte per regolamentare l'uso delle tecnologie di intelligenza artificiale siano fondamentali, presentano diverse criticità. Innanzitutto, l'applicazione pratica di leggi e regolamenti può risultare complessa e inefficace, data la rapidità con cui questi sistemi evolvono. Le IA avanzate, infatti, sono spesso in grado di aggirare facilmente le restrizioni esistenti, rendendo difficile la loro sorveglianza e controllo. Inoltre, la creazione di un organismo di controllo indipendente potrebbe incontrare ostacoli significativi in termini di finanziamenti, competenza tecnica e imparzialità. Le politiche di trasparenza, sebbene essenziali, rischiano di non essere sufficientemente dettagliate o di essere implementate in modo non uniforme tra le varie aziende. Infine, la collaborazione tra sviluppatori, esperti legali e rappresentanti dei diritti civili può risultare complicata a causa di divergenze di interessi e di visione, rallentando così il processo di definizione di linee guida efficaci. Questi limiti evidenziano la necessità di un approccio dinamico e adattabile per affrontare le sfide poste dai modelli emergenti.
Conclusioni
Questa vicenda non è solo un caso legale o etico, ma un campanello d'allarme che ci avverte di come la fantascienza stia diventando la nostra realtà quotidiana. Tecnologie come il deepfake rendono sempre più sottile il confine tra ciò che è vero e ciò che è falso, minando la fiducia nelle informazioni che ci circondano. Il rischio è di vivere in un mondo dove l'autenticità diventa un concetto relativo, influenzando non solo la sfera personale ma anche quella sociale e politica.
In questo scenario, il discrimine rimane il pensiero critico. È fondamentale che la formazione e l'educazione su queste tecnologie inizino fin dai primi livelli scolastici, insegnando ai giovani non solo come utilizzare gli strumenti digitali, ma anche come riconoscere e analizzare le informazioni in modo consapevole. Promuovere un uso etico e responsabile delle tecnologie emergenti è essenziale per costruire una società che sappia navigare tra le opportunità e i pericoli del progresso tecnologico, mantenendo sempre al centro i valori umani fondamentali. Solo così si può sperare di gestire questo nuovo “potere” in modo che serva il bene comune, anziché minarlo.
*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche di Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale. Direttore Tecnico dell’Osservatorio Nazionale Minori e Intelligenza Artificiale