rivista di opinione, ricerca e studi filosofici
rivista di opinione, ricerca e studi filosofici

Nasce il Frontier Model Forum “per un futuro sicuro dell'IA”

Anthropic, Google, Microsoft e OpenAI mirano a standardizzare le pratiche e ridurre i rischi del machine learning su larga scala

di Francesco Pungitore*

 

Anthropic, Google, Microsoft e OpenAI, aziende leader nel settore dell'intelligenza artificiale, annunciano la creazione del Frontier Model Forum. L'obiettivo di questa nuova alleanza è “la riduzione dei rischi associati all'intelligenza artificiale e il supporto agli standard del settore”, condividendo le migliori pratiche non solo tra di loro, ma anche con i legislatori e i ricercatori. È indubbio che la creazione del Frontier Model Forum rappresenti un significativo passo avanti nel campo della sicurezza e dell'etica dell'IA. Tuttavia, è fondamentale che quest'iniziativa non si trasformi in un “cartello” tra i giganti della tecnologia. È auspicabile, pertanto, che le linee guida e le regole stabilite non vengano utilizzate per consolidare ulteriormente il potere di queste poche aziende, limitando la ricerca e l'innovazione delle organizzazioni minori o emergenti. Al contrario, il Forum dovrà mantenere uno spirito di inclusività, apertura e collaborazione, incoraggiando e sostenendo la partecipazione di una varietà di stakeholder, comprese startup, università, organizzazioni no profit e governi di tutto il mondo. In questo modo, si potrà garantire che le opportunità offerte dall'IA vengano sfruttate nel modo più ampio ed equo possibile, a beneficio di tutti.

Responsabilità

“Le aziende che creano questa tecnologia hanno la responsabilità di garantire che sia sicura, protetta e rimanga sotto il controllo umano”, ha dichiarato Brad Smith, presidente di Microsoft, sottolineando l'importanza di questa iniziativa per il progresso responsabile dell'IA. La necessità di una gestione responsabile dell'IA era stata sottolineata anche dal presidente degli Stati Uniti, Joe Biden, che aveva invitato le aziende a “guidare l'innovazione” durante un recente incontro alla Casa Bianca con i leader delle principali società tecnologiche.

 

Trasparenza

Prima dell'incontro alla Casa Bianca, sette gigantesche società dell'IA avevano già concordato l'implementazione di una serie di salvaguardie autoregolamentate. Tra queste, l'adozione di “robusti meccanismi tecnici”, come i sistemi di watermarking, per assicurare agli utenti la possibilità di “distinguere il contenuto generato dall'intelligenza artificiale da quello umano”.

 

Obiettivi e implicazioni

Il Frontier Model Forum mira a minimizzare i rischi dell'IA e a permettere valutazioni di sicurezza indipendenti delle piattaforme di intelligenza artificiale. Tuttavia, l'obiettivo non è solo ridurre i rischi, ma anche “promuovere l'uso dell'IA per affrontare problemi globali” quali il cambiamento climatico, la prevenzione del cancro e le minacce informatiche.

 

Il futuro

“È fondamentale che le aziende di intelligenza artificiale, in particolare quelle che lavorano sui modelli più potenti, si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili”, ha affermato Anna Makanju, vicepresidente degli affari globali di OpenAI. Il Forum attingerà alle competenze tecniche e operative delle aziende associate per sostenere l'intero ecosistema di intelligenza artificiale. Nei prossimi mesi, il Frontier Model Forum istituirà un comitato consultivo per guidare la sua strategia e le sue priorità, invitando le organizzazioni che soddisfano i criteri richiesti a unirsi all'iniziativa.

L'implicazione di questo impegno congiunto di giganti della tecnologia rappresenta un passo significativo verso un futuro dell'intelligenza artificiale sicuro, etico e responsabile.

 

Il documento

Un comunicato congiunto di Anthropic, Google, Microsoft e OpenAI riassume gli obiettivi e i piani del Frontier Model Forum. L'organismo è nato “per garantire uno sviluppo sicuro e responsabile dei modelli di IA di frontiera e intende avvalersi dell'expertise tecnica e operativa delle società membre a beneficio dell'intero ecosistema dell'IA”. Questo si realizzerà attraverso l'avanzamento di “valutazioni tecniche, lo sviluppo di una libreria pubblica di soluzioni e l'identificazione delle migliori pratiche per l'industria”.

Il Forum accoglie la partecipazione di altre organizzazioni che sviluppano modelli di IA e che sono disposte a collaborare per il loro avanzamento sicuro. I criteri per l'adesione includono lo sviluppo e il dispiegamento di modelli di frontiera, un forte impegno per la sicurezza di questi modelli e la volontà di contribuire agli sforzi del Forum.

Nel prossimo anno, il Forum si concentrerà su tre aree chiave per sostenere lo sviluppo sicuro e responsabile dei modelli di IA: l'identificazione delle migliori pratiche, l'avanzamento della ricerca sulla sicurezza dell'IA e la facilitazione della condivisione di informazioni tra aziende e governi.

Kent Walker, Presidente degli Affari Globali di Google & Alphabet, ha dichiarato: “Siamo entusiasti di lavorare insieme ad altre aziende leader, condividendo competenze tecniche per promuovere un'innovazione responsabile dell'IA. Dobbiamo tutti lavorare insieme per garantire che l'IA benefici tutti”.

Brad Smith, Vicepresidente e Presidente di Microsoft, ha aggiunto: “Le aziende che creano tecnologia IA hanno la responsabilità di garantire che sia sicura, protetta e rimanga sotto il controllo umano. Questa iniziativa è un passo vitale per riunire il settore tecnologico nel far progredire l'IA in modo responsabile e affrontare le sfide in modo che vada a vantaggio di tutta l'umanità”.

Anna Makanju, Vicepresidente degli Affari Globali di OpenAI, ha sottolineato: “Le tecnologie avanzate di intelligenza artificiale hanno il potenziale per apportare profondi benefici alla società e la capacità di raggiungere questo potenziale richiede supervisione e governance. È fondamentale che le aziende di intelligenza artificiale, in particolare quelle che lavorano sui modelli più potenti, si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili”.

Nel corso dei prossimi mesi, il Frontier Model Forum istituirà un consiglio di amministrazione per guidare la sua strategia e le sue priorità, rappresentando una varietà di esperienze e prospettive. Le aziende fondatrici stabiliranno anche accordi istituzionali chiave, tra cui un atto costitutivo, la governance e il finanziamento con un gruppo di lavoro e un consiglio esecutivo per guidare questi sforzi. Prevedono di consultare la società civile e i governi nelle prossime settimane sul design del Forum e su modi significativi di collaborare.

Il Forum accoglie l'opportunità di supportare e alimentare le iniziative governative e multilaterali esistenti, come il processo di Hiroshima del G7, il lavoro dell'OCSE sui rischi dell'IA, gli standard e l'impatto sociale, e il Consiglio per il Commercio e la Tecnologia tra USA e UE. Il Forum cercherà anche di costruire sul lavoro prezioso di iniziative esistenti del settore, della società civile e della ricerca in ciascuno dei suoi flussi di lavoro. Iniziative come la Partnership on AI e MLCommons continuano a fare importanti contributi alla comunità dell'IA, e il Forum esplorerà modi per collaborare e supportare questi e altri sforzi multilaterali di valore.

LINK AL DOCUMENTO: QUI

 

*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche della Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale

 

Stampa | Mappa del sito
© 2015 - Essere & Pensiero - Testata giornalistica online ai sensi dell'art. 3-bis del d.l. 63/2012 sull'editoria convertito in legge n. 103/2012 - Direttore Responsabile: Francesco Pungitore