Nella vulgata odierna aumenta il partito di chi livella il pensiero umano all’intelligenza artificiale. C’è il rischio di svilire il significato stesso di persona.
Lo sviluppo dell’Intelligenza Artificiale (AI) è oggetto di attenzione, ma anche preoccupazione.
Il nuovo messaggio sulla giornata delle comunicazioni sociali del prossimo anno, verte sull’intelligenza artificiale.
Con i suoi film, Hollywood ci ha fornito scenari fantascientifici sulle possibilità dell’intelligenza artificiale.
I cineasti e gli addetti ai lavori, però, hanno recentemente fatto uno sciopero sentendo minacciato il loro futuro lavorativo dalla creatività dell’AI.
Alcune di queste preoccupazioni sono legittime; altre sono fiabe che già state esplorate nei lungometraggi delle ultime due generazioni.
Mentre siamo ossessionati dai suoi aspetti negativi distopici, non riusciamo a tenere in conto delle cose buone che l’AI potrebbe fare per noi nei prossimi anni, dagli screening del cancro alla progettazione stradale.
L’AI cambierà innumerevoli vite in meglio.
C’è però una minaccia fondamentale posta dall’AI che tutti noi sembriamo ignorare, molto legata alla morale.
L’AI ha la capacità di minare la nostra comprensione della persona umana.
La scorsa settimana, OpenAI ha annunciato che il suo modello di linguaggio algoritmico e la piattaforma di imaging “ora può vedere, sentire e parlare”.
Ad esempio, se si mostra all’AI l’immagine di una bicicletta e si chiede come abbassare il sedile, la piattaforma di Open AI può analizzare l’immagine, determinare che tipo di bicicletta è nell’immagine, cercare nei suoi manuali e trasmettere la risposta in testo o in audio vocale.
L’AI non è, ovviamente, una mente che pensa davvero.
È una serie di algoritmi e reti neurali con accesso a un database molto grande, creato da esseri umani.
È fuori luogo usare il linguaggio antropomorfo per descrivere i modelli di una piattaforma di immagini e pretendere che sia come gli esseri umani.
La preoccupazione va più in profondità e nella direzione opposta.
Mentre alcuni potrebbero essere inclini ad avvicinarsi all’idea che l’AI sia come noi, la cultura più ampia è in realtà pronta ad accettare l’opinione che siamo piuttosto noi come l’AI.
Cosa c’è di sostanzialmente diverso tra l’uomo e l’intelligenza artificiale nel modo in cui analizziamo una foto, coinvolgiamo un database e spuntiamo la risposta a una domanda?
Il problema di fondo è lo stato avanzato della nostra cultura di ciò che il filosofo Charles Taylor chiamava “disincantesimo”, specialmente quando si tratta della autocomprensione.
Nell’Occidente post-cristiano, la nostra soggettività culturale non accoglie più il concetto di anima, coscienza, grazia santificante…
Gli ultimi secoli e soprattutto gli ultimi decenni, ci hanno preparato a immaginarci come molto simili all’AI.
La nostra capacità di vedere, sentire, parlare e altre azioni tipicamente, se non esclusivamente umane, sono equiparate alle azioni di altri tipi di reti neurali.
Se spiegassimo l’AI a un uomo del Medioevo, non ci sarebbe nessuna possibilità di confondere la macchina con la persona.
L’idea culturale dell’uomo come “spirito incarnato” non permetterebbe di commettere l’errore dei nostri contemporanei.
Ritornando al cinema, in “L’Impero colpisce ancora” persino la saggezza del maestro Jedi Yoda, insegna a Luke Skywalker che non siamo solo “materia grezza”, ma “esseri luminosi”.
Siamo creature animate la cui forma riflette l’immagine e la somiglianza di Dio.
Giudicare l’Intelligenza Artificiale richiede quindi quella saggezza umana, che non rifiuta il progresso tecnico, ma che non si piega acriticamente ad ogni applicazione pericolosa o distruttiva di questo stesso progresso.
Ciò che sicuramente è da rifiutare è l’idea che l’AI è come noi o – peggio – che noi siamo come l’AI.
Niente è più lontano dalla verità che questo.