Geoffrey Miller: Come le false immagini dell'intelligenza artificiale potrebbero alimentare le tensioni nell'Indo
CasaCasa > Notizia > Geoffrey Miller: Come le false immagini dell'intelligenza artificiale potrebbero alimentare le tensioni nell'Indo

Geoffrey Miller: Come le false immagini dell'intelligenza artificiale potrebbero alimentare le tensioni nell'Indo

Jul 25, 2023

Guarda: Il Partito Nazionale ha ammesso di utilizzare l'intelligenza artificiale (AI) per creare foto false per i suoi annunci di attacchi politici. Crediti: Video - Newshub; Immagine - Getty Images.

Di Geoffrey Miller del Democracy Project

ANALISI: Vedere non è più credere.

Sono qui immagini sorprendentemente realistiche, ma false, create dall'intelligenza artificiale (AI).

Fino ad oggi, la maggior parte sono sembrate più curiosità che veri e propri tentativi di inganno.

Il mese scorso, è stato rivelato che il Partito Nazionale neozelandese aveva utilizzato l'app di generazione di immagini AI Midjourney per produrre immagini promozionali. I risultati includevano operatori sanitari immaginari e cittadini dall’aspetto spaventoso preoccupati per la criminalità.

In questo caso, l’uso dell’intelligenza artificiale è stato relativamente benigno: le creazioni dell’intelligenza artificiale hanno effettivamente sostituito le foto d’archivio che sarebbero state utilizzate in passato.

Fino a quando un media non ha sollevato sospetti, poche persone – se non nessuna – avevano notato che le immagini dall’aspetto realistico erano in realtà false.

Sebbene l’esempio della Nuova Zelanda abbia mostrato come le immagini dell’intelligenza artificiale possano essere utilizzate nelle campagne elettorali, possiamo anche aspettarci che abbiano un impatto enorme sulle relazioni internazionali.

A marzo, il fondatore di Bellingcat, Eliot Higgins, ha twittato sorprendenti immagini “deepfake” di Donald Trump “arrestato” dalla polizia di New York.

Higgins, che ha utilizzato anche Midjourney, ha chiaramente etichettato le immagini come creazioni di intelligenza artificiale.

Ma ciò non ha impedito alle immagini di diventare virali e di servire da vetrina della sofisticatezza della tecnologia.

Higgins ha anche twittato false immagini generate dall’intelligenza artificiale di un immaginario “vertice di pace” tra Vladimir Putin e Joe Biden – mediato dal francese Emmanuel Macron.

Dato l’attuale stato della guerra in Ucraina, difficilmente questi potrebbero ingannare qualcuno.

Tuttavia, i deepfake dall’aspetto realistico creati da Higgins di un’immaginaria esplosione nucleare in Ucraina hanno mostrato il potenziale che l’intelligenza artificiale potrebbe avere nella nebbia della guerra.

Subito dopo che la Russia ha invaso l’Ucraina lo scorso anno, un video falso di Volodymyr Zelenskyj che invitava gli ucraini a deporre le armi è stato pubblicato dagli hacker sul sito di notizie Ukraine 24.

Nell’Indo-Pacifico, è sicuramente solo questione di tempo prima che immagini credibili generate dall’intelligenza artificiale vengano utilizzate per alimentare ulteriormente le tensioni geopolitiche nella regione.

Il primo ministro neozelandese Chris Hipkins ha fatto eco al suo predecessore Jacinda Ardern nel denunciare quella che definisce la “militarizzazione del Pacifico”.

Ma solo nella prima metà del 2023, gli Stati Uniti hanno stretto nuovi accordi di difesa con le Filippine e la Papua Nuova Guinea, in risposta alla firma da parte della Cina del proprio patto di sicurezza con le Isole Salomone l’anno scorso.

Le tensioni stanno crescendo e l’intelligenza artificiale potrebbe portarle al livello successivo.

Probabilmente, la vastità del Pacifico crea alcuni vantaggi per i tentativi di disinformazione.

Immagini false, ad esempio, di navi militari vicino a un remoto atollo potrebbero essere difficili da confutare immediatamente.

Anche le scarse infrastrutture di comunicazione negli angoli più remoti del Pacifico non aiuteranno.

Inoltre, l’aumento dei contenuti creati dall’intelligenza artificiale potrebbe far sì che il pubblico si chieda a cosa credere.

Un rapporto della Brookings Institution pubblicato a gennaio ha identificato nel “seminare confusione” uno degli obiettivi principali di coloro che stanno dietro le operazioni di disinformazione.

Il rapporto fornisce un esempio di un discorso presidenziale robotico da parte del presidente del Gabon: mentre alcuni credevano che fosse la prova di un deepfake, altri pensavano che il presidente fosse semplicemente malato. Indipendentemente dalla verità, ne seguirono il caos e un tentativo di colpo di stato militare.

L’intelligenza artificiale ha il potere di creare una sala degli specchi, dove anche i contenuti autentici vengono visti con scetticismo e diffidenza.

Un esempio reale del potenziale di caos dell’intelligenza artificiale è arrivato il mese scorso, quando un’immagine falsa di un’esplosione al Pentagono a Washington è circolata su Twitter e ha causato un breve crollo dei mercati finanziari.

Esistono molte potenziali risposte alla nuova sfida dell’intelligenza artificiale per le relazioni internazionali.

Una possibilità è regolamentare.