L’etica dell’intelligenza artificiale
Luciano Floridi è una delle voci più autorevoli della filosofia contemporanea. È professore ordinario di Filosofia ed Etica dell’Informazione all’Università di Oxford e di Sociologia della Cultura e della Comunicazione presso l’Università di Bologna. Abbiamo parlato con lui del suo ultimo libro “Etica dell’intelligenza artificiale” (ed. Raffaello Cortina)
Lei si occupa di Intelligenza Artificiale da diverso tempo, perché un libro sull’Etica dell’IA?
Il libro nasce dall’idea di un “divorzio” che stiamo vivendo. Da una parte l’IA ci permette di risolvere problemi con successo. Se la mia lavastoviglie non fosse “intelligente”, spaccherebbe tutti i piatti o l’auto a guida autonoma andrebbe a sbattere. Oggi abbiamo la possibilità di fare queste cose con strumenti che hanno l’intelligenza della caffettiera di mia nonna però hanno un successo straordinario. Ecco il divorzio. Non è un matrimonio tra ingegneria e biologia che crea IA tipo androidi di Star Wars che capiscono, sono intelligenti, motivati etc. Dal momento in cui separiamo l’agire dal capire, quando l’intelligenza va da una parte e la capacità di agire dall’altra, in questa spaccatura si annidano tutti i problemi.
Nel film 2001 Odissea nello Spazio del 1968, Kubrick s’immaginava un futuro dove l’uomo perdeva il controllo sul computer che aveva creato. Forse non siamo tanto lontani se guardiamo ai recenti incidenti occorsi alla Boeing con il 737 Max. Un algoritmo che mistificava la realtà, impediva ai piloti di riprendere il controllo dell’aereo. Dobbiamo preoccuparci?
Il rischio dell’autonomia di questi strumenti è un problema che va inquadrato bene sennò le persone si impauriscono per le ragioni sbagliate e non hanno paura quando dovrebbero averla. Questi strumenti hanno un’autonomia vincolata nella gestione di alcuni compiti come guidare un aereo o tagliare l’erba in giardino. Io ho due robottini autonomi che tagliano l’erba. Se uno di questi robottini scavalca una barriera che avevo messo per proteggere l’aiuola perché ho lasciato una falla aperta, e distrugge le rose, di chi è la colpa? Del robottino o mia che non ho prestato attenzione? L’autonomia vincolata di queste macchine può essere anche pericolosa (prendiamo un’auto o un aereo), su questo bisogna lavorare certamente, ma non dobbiamo preoccuparci dell’autonomia svincolata, con le macchine che prendono il sopravvento, è pura fantascienza.
Questi algoritmi però vengono programmati da qualcuno ed immagino si pongano delle questioni “etiche”. Facciamo un esempio. Sto viaggiando su un’auto senza conducente. Ad un certo punto comprare un ostacolo. In un nanosecondo l’algoritmo deve fare delle scelte, sterzare a sinistra mettendo a rischio la mia vita di passeggero con un frontale oppure girare a destra, salvandomi la vita ma compiendo la scelta poco etica d’investire tre persone che camminano lungo la carreggiata. L’algoritmo dovrebbe essere etico in questo caso e fare quale scelta “giusta”?
Molti di questi problemi vengono risolti in modo molto semplice e grazie anche alla legislazione. Un’auto che non facesse il bene del conducente non la comprerebbe nessuno anche se l’algoritmo fosse etico. Torniamo con i piedi per terra. La legislazione ci dice che se lei stai guidando e per salvarsi purtroppo investe qualcuno, non sarà una cosa immorale. In etica si chiamano “richieste supererogatorie” cioè richieste di un agire morale che va molto al di là di quello che sarebbe una normale richiesta di buon senso e buona volontà. È come se le dicessi: se lei fosse una buona persona dovrebbe donare metà dello stipendio in beneficenza. Un’auto che mettesse in secondo piano il guidatore nei momenti di rischio, e lo forzasse al suicidio pur di salvare gli altri, è un’auto che non sarebbe etica e non avrebbe successo di mercato.
Quindi sta dicendo che è il mercato che farà la scelta giusta?
Il mercato è anche indice della nostra moralità. Lasciando stare il mercato, semplicemente la società non accetterebbe uno strumento pericoloso per la propria vita. A nessuno si deve imporre il dovere morale di sacrificarsi per salvare l’altro. Questo ci fa tornare al tema del controllo umano. Proprio perché si possono verificare circostanze senza via d’uscita, prima di arrivarci, un buon design prevede la soluzione che può essere un banale pulsante rosso che permette di agire.
E c’è la volontà di mettere un bel pulsante rosso sulle tecnologie? Penso ad esempio a Tesla che produce auto intelligenti o dobbiamo preoccuparci?
Ci sarà. Non c’è ora, perché come umanità siamo irresponsabili, quindi prima faremo errori e poi arriveremo ai ripari. È come se mi avesse chiesto cento anni fa se le auto avrebbero avuto dei sistemi per limitare i danni in caso d’incidente. Lei avrei detto no ma che ci saremmo arrivati ed infatti abbiamo avuto le cinture di sicurezza, gli airbag, etc. ma quante persone sono morte per arrivare a quelle soluzioni? Il tasto rosso me lo aspetto dopo molti incidenti. La questione è, quanti morti ci dovranno essere prima che il design, l’ingegneria, gli standard ISO agiscano per rendere sicuro il prodotto? Certamente si svilupperanno auto con intelligenza artificiale di livello 5, ma in contesti dove è possibile controllare l’ambiente circostante come il trenino che gira all’interno del Terminal di un aeroporto. L’aeroporto viene costruito affinché il trenino possa funzionare bene ed in sicurezza.
In termini di governance, per evitare tutti questi problemi, lei scrive che il modo migliore per prendere il treno tecnologico non è inseguirlo ma farsi trovare pronti alla prossima stazione. Non mi sembra che nella storia umana siamo mai riusciti nell’intento.
Purtroppo ha ragione. Lei pensi alla realtà aumentata, al Metaverso, passi enormi in avanti, e noi siamo ancora qui discutendo di una legislazione europea sull’IA. Questo è frustrante, perché non è che non si possa fare, non è che il legislatore scopre oggi che esiste la realtà virtuale, sono anni che ci lavoriamo. Chi non conosce Second Life? Roba di dieci anni fa. Purtroppo aspettiamo sempre l’ultimo momento per prendere il treno ma così lo perderemo sistematicamente.
Visto che parliamo di algoritmi etici, cosa ne pensa della volontà di Musk di acquisire Twitter per rendere l’algoritmo più democratico?
Il mio giudizio non è positivo. Musk commette un grave errore concettuale. Dice che Twitter dovrà diventare come le piazze delle città. Io nella piazza della mia città non posso mettere un banchetto e vendere quello che voglio, non posso fare un comizio senza autorizzazione perché si sono regole in uno spazio pubblico. Perché questo non dovrebbe valere nella vita on line? La libertà di parola intesa in senso assoluto, è una sciocchezza senza fine. E uno dei tanti diritti che abbiamo ma che deve fare i conti con gli altri diritti e doveri. Non è una questione di mettere bavagli o chiudere account, silenziare, pensiero unico etc., si tratta di diritti e doveri che vanno messi sulla bilancia e vanno mediati. Musk questa cosa non la capirà mai perché non appartiene alla sua cultura e se glielo lasceranno fare nasceranno pasticci. Concludo con quest’osservazione. Musk ha offerto quarantaquattro miliardi di dollari per quest’operazione che sono i soldi che gli Stati Uniti hanno stanziato per affrontare il tema del riscaldamento climatico. Cosa penseranno le generazioni future quando si troveranno un pianeta distrutto e leggeranno queste cose?
Non mi è chiara una cosa. Lei è un’ottimista o un pessimista?
Sono frustrato. Ottimista sulle opportunità e pessimista sulle nostre capacità di coglierle. Quando abbiamo cambiato strada? Quando abbiamo commesso errori. Purtroppo quello che posso augurarmi è una piccola catastrofe, non un disastro. La catastrofe è improvvisa e radicale, uno shock che ci sveglia, il disastro invece è l’aragosta che bolle in pentola e non si accorge che sta morendo.
Ma abbiamo già avuto la pandemia, non le basta?
Temo di no. Quando dico piccola catastrofe intendo un po’ più grande della pandemia. Purtroppo. Solo allora prenderemo le necessarie misure.