rivista di opinione, ricerca e studi filosofici
rivista di opinione, ricerca e studi filosofici

Il degrado percettivo dell’IA

ChatGPT sembra essere diventato “meno intelligente”, ma cosa c'è di vero dietro le proteste degli utenti?

di Francesco Pungitore*

 

Diverse voci online accusano in questi giorni ChatGPT, l'intelligenza artificiale di OpenAI, di essere diventata “meno intelligente”, con la presunta comparsa di errori grossolani e l'incapacità di sostenere conversazioni coerenti. Non è che prima funzionasse alla perfezione, ma in tanti denunciano scivoloni linguistici improvvisi e una sorta di autocensura immotivata su determinate domande. Questo fenomeno è stato definito come “imbecillimento artificiale” e sembra aver preso piede tra gli utenti più assidui e attenti dell'IA.

Il paper di Stanford e Berkeley

Un paper non ancora pubblicato, scritto da ricercatori di Stanford e Berkeley, sembra confermare queste accuse. I ricercatori sostengono di aver misurato una diminuzione nelle competenze dell'IA, incluse le abilità matematiche, la capacità di scrivere codice funzionante e la comprensione dei motivi dietro determinate decisioni. Tuttavia, la misurazione dell'intelligenza artificiale è un campo ancora in fase di sviluppo, rendendo i risultati del paper non del tutto credibili o definitivi.

 

La risposta di OpenAI

In risposta alle accuse, OpenAI ha negato qualsiasi degrado nelle abilità di ChatGPT, sostenendo anzi che ogni versione dell'IA sia “più intelligente” della precedente. Secondo OpenAI, i presunti errori e difetti potrebbero essere dovuti al maggiore uso dell'IA da parte degli utenti che ha esposto limiti precedentemente nascosti. Tuttavia, questa risposta non ha fermato le speculazioni sulla possibile causa della percezione collettiva di un decremento nelle competenze di ChatGPT.

 

Possibili spiegazioni

Tra le possibili spiegazioni, c’è chi ipotizza che ChatGPT sia stato semplicemente un grande test mondiale per mostrare le potenzialità dell'IA e testare le reazioni del mercato. Secondo questa ipotesi, la vera applicazione, il grande modello linguistico che alimenta il futuro ChatGPT, sarebbe in mano a Microsoft, uno dei finanziatori di OpenAI, pronto a vararlo a costi non proprio “popolari”.

Un'altra ipotesi suggerisce che OpenAI abbia modificato il modello di funzionamento di GPT, dividendo il “cervello centrale” in altri più piccoli e specializzati, allo scopo di risparmiare potenza di calcolo, energia e costi.

Infine, alcuni sostengono che i tentativi di OpenAI di prevenire risposte scorrette da parte di ChatGPT, introducendo filtri di prudenza, potrebbero aver compromesso l'efficacia dell'IA.

 

Il futuro di ChatGPT e la trasparenza degli algoritmi

Mentre attendiamo di vedere se le affermazioni di degrado delle competenze di ChatGPT verranno confermate, è importante considerare alcune implicazioni più generali. In particolare, c’è il grande tema della mancanza di trasparenza che continua ad accompagnare il processo di aggiornamento degli algoritmi. I modelli che guidano l'intelligenza artificiale vengono continuamente modificati in modo opaco e nessun governo è finora riuscito a richiedere adeguate garanzia di tutela degli utenti finali.

In questo scenario di lacune e omissioni che evidenziano la debolezza della politica nel rapporto con i giganti della tecnologia mondiale, meritano un plauso le aziende che scelgono di pubblicare in modo trasparente i propri codici open source, offrendo una panoramica dettagliata del funzionamento dei loro sistemi. Queste organizzazioni riconoscono autonomamente che la trasparenza è un elemento fondamentale per costruire la fiducia del pubblico e per garantire che le intelligenze artificiali siano usate in modo responsabile e benefico.

Le pratiche open source non sono solo un beneficio per la comunità scientifica, che può utilizzare le ricerche esistenti, ma rappresentano anche una salvaguardia per la società. Forniscono un controllo di base per verificare che gli algoritmi siano privi di pregiudizi e discriminazioni e rispettino le normative sulla privacy e altri diritti degli utenti.

Queste pratiche di trasparenza dovrebbero diventare la norma per l'industria dell'intelligenza artificiale. La disponibilità di codice open source dovrebbe essere un requisito essenziale nel panorama delle tecnologie emergenti, un pilastro delle democrazie del futuro. Con l'IA che diventa sempre più pervasiva nella nostra società, è fondamentale garantire responsabilità, garanzie ed equità per tutti gli utenti.

 

L'emergere di xAI

In tutto questo, Elon Musk ha fondato una nuova azienda chiamata xAI, con l'obiettivo di “comprendere la natura dell'universo” attraverso lo sviluppo dell'intelligenza artificiale: xAI collaborerà con Twitter, Tesla e altre società per raggiungere la sua missione, portando ulteriori stimoli e competizioni nel campo dell'IA.

 

*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche della Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale

Stampa | Mappa del sito
© 2015 - Essere & Pensiero - Testata giornalistica online ai sensi dell'art. 3-bis del d.l. 63/2012 sull'editoria convertito in legge n. 103/2012 - Direttore Responsabile: Francesco Pungitore