Siamo sicuri che quello che vediamo sia la realtà?
Lo sviluppo delle piattaforme di intelligenza artificiale, sta creando “un mondo di ombre che vengono scambiate per reali”. Il web è ormai pieno di immagini finte prese per vere, che possono diventare un pericolo. L’antidoto? Sapere che le macchine, in fondo, sono più stupide di noi…
“Ci sarà un giorno in cui niente di quello che vedremo su internet potrà essere considerato reale”. E questo giorno non è molto lontano, almeno secondo Wasim Khaled, che è il capo operativo di Blackbird.AI, una piattaforma che usa l’intelligenza artificiale per combattere la disinformazione. Questo è il punto: siamo sicuri che quello che vediamo oggi sia reale? E non è questione che riguarda il dibattito su cosa sia, appunto, la realtà secondo i nostri neuroni. Il problema è aver creato una tecnologia che ha accelerato il nostro quotidiano rendendolo impossibile da decifrare in pochi secondi. Uno sforzo davanti al quale ci arrendiamo, prendendo tutto per vero. Anche quando non lo è.
Immagini o immaginazioni?
Trump in manette mentre viene portato in carcere, Boris Johnson che balla in un parco di Londra, astronauti su un set nel deserto dell’Arizona che fingono di essere sulla Luna, il Papa che veste un piumino bianco firmato. Ormai basta un clic per credere ciò che non è mai successo, basta una piattaforma con algoritmi evoluti per creare un universo parallelo.
E non c’è solo l’ormai famosissima ChatGPT. Uno degli ultimi prodotti si chiama Midjourney, ed è nato – dicono i fondatori – come un “laboratorio di ricerca indipendente che esplora nuovi mezzi di pensiero ed espande i poteri fantasiosi della specie umana”. Quanto fantasiosi lo ha testato il giornalista inglese Eliot Higgings, che ha aperto un progetto open source chiamato Bellingcat per investigare sulla veridicità di fonti e notizie. Proprio lui ha creato la foto di Trump arrestato e con la tuta arancione da detenuto e poi ha testato la reazione umana postandola su Twitter, pur marchiandola come artificio di un computer.
Il risultato è stato duplice: l’immagine dell’ex presidente USA ha passato il test di riconoscimento facciale di Bellingcat, dello stesso tipo che viene utilizzato dal governo russo nei suoi mezzi di controllo. E altre immagini artefatte, rappresentanti personaggi noti, ma non così conosciuti nel mondo (per esempio il premier Uk Rishi Sunak), hanno cominciato a diventare virali come se fossero vere. Cosa che Midjourney non ha gradito, chiudendo l’account di Higgins.
Le conseguenze
Come ha rilevato in un recente articolo del New York Times, l’era in cui ciò che vediamo potrebbe essere tutto falso crea dei problemi etici rilevanti. Una foto perfettamente modificata può scatenare una guerra, può convincere l’opinione pubblica da che parte stare, può decidere le fortune economiche di grandi aziende o di interi Paesi. Qualche settimane fa Getty Images ha accusato la piattaforma Stability Ai di aver rubato 12 milioni di fotografie, metadati compresi, per poter allenare il suo software Stable Diffusion, che utilizza l’intelligenza artificiale per produrre immagini artistiche in pochi secondi. Anche in questo caso il software viene presentato con lo slogan “stiamo costruendo le fondamenta per attivare il potenziale umano”, ma in realtà sembra di essere un po’ tornati ai tempi di Napster, quando la musica doveva diventare gratis per tutti, perché l’umanità ne aveva il diritto. Li chiamavano pirati.
Napster poi ha chiuso e lo streaming è diventato un business, il caso tra Getty e Stability AI è attualmente in tribunale, l’uso di Midjourney – che è stato utilizzato per produrre le immagini di un fumetto americano – è stato disciplinato da un giudice in materia di diritti di autore: “A causa della distanza significativa tra come si può istruire il software a creare e il materiale visivo effettivamente prodotto, è chiaro che gli utenti non hanno sufficiente controllo sulle immagini prodotte per esserne considerati la mente”. In pratica, pur se diamo le istruzioni giuste l’AI fa un po’ come vuole.
E qui sta il punto: siamo in pericolo? L’esperta del settore Nina Shick, rileva il NYT, ha spiegato come la tecnologia sta creando “un mondo in cui le ombre vengono scambiate per realtà”. In cui è sempre più difficile fermarsi a pensare e in cui perfino l’arte potrebbe sfuggire di mano all’uomo, se la creatività viene affidata a una macchina. E quindi siamo in pericolo, anche se nessuno sembra rendersene conto. A meno che non riusciamo, in tempo, a ragionare su quanto dice il filosofo Luciano Floridi: “Quello tra l’uomo e la macchina è in fondo l’incontro tra due stupidità diverse. E per risolvere la questione basta rivolgersi alla definizione classica creata nel 1955 dai padri fondatori della scienza cognitiva: il problema dell’intelligenza artificiale è quello di fare sì che una macchina agisca con modalità che sarebbero definite intelligenti se un essere umano si comportasse allo stesso modo”. Ovvero: il computer non è intelligente e non pensa, noi che possiamo farlo dobbiamo solo continuare a guardare il mondo con un po’ di cervello.