rivista di opinione, ricerca e studi filosofici
rivista di opinione, ricerca e studi filosofici

La bufala dell'IA “militare” ribelle e assassina: ecco tutta la verità

Un esercizio teorico viene interpretato dai media come un fatto realmente accaduto, ma così non si aiuta la crescita di un dibattito serio sull'intelligenza artificiale

di Francesco Pungitore*

 

Negli ultimi giorni, il mondo mediatico è stato scosso dalla notizia di un drone controllato da intelligenza artificiale (IA) che, durante una “simulazione”, avrebbe addirittura “ucciso” il proprio operatore umano per svolgere più efficacemente il suo compito. La realtà, tuttavia, si è rivelata ben diversa.

L'episodio, in effetti, è nato come un puro esercizio teorico presentato dal colonnello Tucker Hamilton, responsabile dei test sull'IA per l'Aeronautica militare statunitense, durante il Future Combat Air and Space Capabilities Summit, tenutosi a Londra tra il 23 e il 24 maggio. Hamilton ha illustrato uno “scenario” del tutto ipotetico in cui un'IA, programmata per distruggere obiettivi con i droni, vedrebbe l'operatore umano come un ostacolo da rimuovere per completare efficacemente la sua missione.

Nonostante i rapidi tentativi di smentita da parte dell'Aeronautica militare statunitense, che ha categoricamente negato l'esecuzione di una tale simulazione, la notizia è stata distorta e riportata come un evento verificatosi realmente da diversi media tra cui il Guardian, Vice e il Times di Londra.

L'equivoco ha sollevato un ampio dibattito tra gli esperti di IA, alcuni dei quali hanno espresso dubbi sulla veridicità della notizia a causa di dettagli mancanti o inesatti, oltre che per la rappresentazione errata delle effettive capacità decisionali dell'IA.

In seguito alla confusione, l'Aeronautica militare americana ha riaffermato il suo impegno verso un utilizzo etico e responsabile delle tecnologie di intelligenza artificiale. Il colonnello Hamilton ha poi chiarito che il suo discorso era un esercizio di speculazione meramente intellettuale e non un esperimento vero e proprio.

Questo episodio evidenzia come la corsa allo scoop possa facilmente portare a distorsioni dell'informazione, ostacolando piuttosto che favorire un dibattito serio e consapevole sull'IA.

Questo incidente dimostra quanto sia fondamentale un approccio responsabile e informato nei confronti dell'IA, evitando la disinformazione e il sensazionalismo. Solo con un dibattito basato su dati accurati e verificabili, possiamo sperare di affrontare efficacemente le sfide e le opportunità presentate dall'evoluzione rapida e potenzialmente rivoluzionaria dell'intelligenza artificiale. La corsa allo scoop può avere effetti dannosi se porta a una comprensione distorta di temi tanto delicati e complessi. È quindi fondamentale che i media si impegnino a fornire un'informazione corretta ed equilibrata, in grado di contribuire a un dialogo costruttivo e consapevole.

 

L'IA sulla frontiera militare: droni, automazione e la corsa al dominio tecnologico

L'intelligenza artificiale sta trasformando profondamente il campo militare. Attraverso l'utilizzo di sottosettori dell'IA come l'apprendimento automatico e l'applicazione di tecnologie emergenti come la visione artificiale e il riconoscimento facciale e sonoro, le forze militari stanno cercando di raggiungere livelli di automazione e autonomia senza precedenti nei sistemi d'arma. Questi sistemi d'arma autonomi, spesso sotto forma di droni robotizzati, sono in grado di selezionare ed ingaggiare bersagli senza il bisogno di un ulteriore intervento umano una volta attivati.

Nel cuore dell'Asia, la Cina ha dimostrato di essere particolarmente ambiziosa in questo campo. A partire dai tardi anni Novanta, il governo di Pechino ha investito ingenti risorse nello sviluppo di un ecosistema di droni guidati dall'IA, diventando un leader mondiale nel settore. Tra le numerose tecnologie avanzate nel suo arsenale, i droni modello Ch-1, Ch-3, Ch-5 e Ch-7, inizialmente concepiti per compiti di ricognizione e monitoraggio, possono ora pilotare armi e trasportare missili di grandi dimensioni per colpire obiettivi in movimento.

L'emergere della Cina come superpotenza nella sfera dell'IA militare ha allarmato gli Stati Uniti. La National Security Commission on Artificial Intelligence (NSCAI) americana, organismo incaricato di fornire raccomandazioni al Presidente e al Congresso USA in materia di Intelligenza Artificiale, ha esortato le forze armate statunitensi a investire almeno otto miliardi di dollari l’anno in queste tecnologie per non rischiare di rimanere indietro rispetto alla Cina. Secondo un rapporto del Georgetown Center for Security and Emerging Technologies, le forze armate cinesi spendono probabilmente più di un miliardo e mezzo di dollari all’anno per l’intelligenza artificiale, stimolando gli Stati Uniti a fare lo stesso.

Questa corsa all'IA militare non riguarda solo le superpotenze. Anche i paesi europei, tradizionalmente più cauti nell'adozione di nuove tecnologie, stanno cercando di investire nel settore. L'IA militare, una volta materia di fantascienza, sta diventando una realtà concreta sulla scena internazionale, promettendo di trasformare radicalmente le dinamiche della difesa e dell'offesa nella guerra del futuro.

 

La responsabilità dei media e l'onere della verità

Nel contesto di questi importanti sviluppi, è fondamentale riconoscere la notevole responsabilità che i media portano nel plasmare la percezione pubblica dell'intelligenza artificiale, soprattutto nel suo uso militare. Una questione complessa, con implicazioni profonde che vanno dal campo etico a quello strategico, dalla sfera politica a quella della sicurezza.

La tecnologia dell'IA è in continua evoluzione e la sua applicazione nell'ambito militare, ma non solo, è una questione delicata che richiede un dibattito pubblico aperto e informato. Gli articoli che esagerano i rischi o distorcono la realtà, come quello che ha alimentato la bufala dell'IA ribelle e assassina, non fanno che aumentare l'incomprensione e l'ansia. Questo non contribuisce al dibattito in modo costruttivo, ma semina invece il panico e la disinformazione.

I media hanno l'onere di riferire la verità, di fornire un'informazione precisa e controllata. Hanno il dovere di fare chiarezza e di guidare l'opinione pubblica verso una comprensione più profonda e consapevole dell'IA. È fondamentale che essi si assumano la responsabilità di comunicare con precisione i progressi, le sfide e i rischi associati all'IA. Solo in questo modo, l'opinione pubblica può formarsi un giudizio informato e partecipare attivamente al dibattito su come questa tecnologia rivoluzionaria dovrebbe essere usata, regolamentata e controllata.

Mentre ci avventuriamo in questa nuova era, l'importanza di una copertura mediatica accurata e responsabile non può essere sottovalutata. Solo con l'onere della verità si può garantire che il dibattito sull'IA risulti arricchito e non distorto, permettendo un uso consapevole e responsabile di questa tecnologia potente e rivoluzionaria.

 

*giornalista professionista, docente di Filosofia, Storia, Scienze Umane e Tecniche della Comunicazione con Perfezionamento post-laurea in Tecnologie per l’Insegnamento e Master in Comunicazione Digitale

Stampa | Mappa del sito
© 2015 - Essere & Pensiero - Testata giornalistica online ai sensi dell'art. 3-bis del d.l. 63/2012 sull'editoria convertito in legge n. 103/2012 - Direttore Responsabile: Francesco Pungitore