“L’intelligenza artificiale cambia il modo con cui facciamo tutte le cose”. Lo ha detto il professor Paolo Benanti, frate francescano del Terzo Ordine Regolare – TOR, che lo scorso giugno alla Fondazione Bruno Kessler è stato protagonista di uno degli incontri di Essent*IA, organizzati dal programma FBK per la Salute, dal titolo Digital Age: epistemologia e antropologia nell’epoca dell’Intelligenza Artificiale.
Paolo Benanti gira il mondo per parlare di questioni etiche nell’Intelligenza artificiale; si occupa di etica, bioetica ed etica delle tecnologie; studia gestione dell’innovazione, tra internet e l’impatto della Digital Age; approfondisce le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie. Dal 2008 è docente presso la Pontificia Università Gregoriana, dove ha conseguito anche il dottorato di teologia morale, presso l’Istituto Teologico di Assisi e il Pontificio Collegio Leoniano ad Anagni. Abbiamo quindi voluto cogliere l’occasione del seminario Essent*IA per raccogliere attraverso questa video intervista qualche riflessione e stimolo su uno dei temi più dibattuti di questi anni.
Alcune domande che gli abbiamo posto ci raccontano innanzitutto la sua formazione e il suo lavoro, altre indagano il suo approccio e la sua visione sul tema dell’etica delle tecnologie. Gli abbiamo chiesto cosa lo distingue rispetto ad altri studiosi: perché un religioso parla di etica delle tecnologie? Qual è la sua visione e qual è l’importanza che dà al tema dell’etica? “Nel mio background ho degli studi tecnici: dopo il liceo ho intrapreso gli studi di ingegneria” – ha precisato Benanti. “Poi ad un certo punto ho fatto una scelta di vita diversa che mi ha portato ad occuparmi di discipline teologiche ed umanistiche. Quando si è trattato di scegliere il dottorato ho tentato di riunire queste due anime, e sono stato accolto dalla Georgetown University a Washington (USA) dove ho potuto toccare con mano biotecnologie, uomo, tecnologie digitali”.
“Il mio contributo come docente per la comprensione dell’umano riguarda il porsi al limite, o meglio, porsi come interfaccia tra umano e macchina della questione etica”.
“La macchina deve rispettare delle questioni che per noi sono fondamentali” – continua Benanti. “C’è un esempio che riporto sempre: un veicolo a guida autonoma che ad un incrocio si trova nella sfortunata circostanza di dover decidere chi sacrificare: come deve scegliere? La scelta etica, prettamente umana, in qualche misura deve diventare una competenza della macchina autonoma. Per fare questo io propongo una definizione che è una commistione tra etica e macchina, un nuovo capitolo dell’etica:
l’Algor-Etica è l’idea di poter sviluppare strumenti algoritmici per gestire dimensioni eticamente sensibili della macchina dotata di intelligenza artificiale”.
Lo abbiamo poi incalzato sull’esistenza di un’etica che possiamo condividere globalmente: “Siamo abituati a pensare l’etica come una dimensione normativa” – ha risposto Benanti. “L’etica delle virtù è un modello che trova universalmente molta più adesione di un’etica normativa. Poi possiamo chiederci quanto è giusto, cosa è giustizia e cosa è equità – questione che abbonda nella filosofia per esempio del Novecento. La macchina deve o non deve essere giusta? È un dibattito aperto”.
Rimane ottimista il professor Benanti rispetto al fatto che grandi player, grandi aziende che si pongono al di sopra degli Stati e che investono miliardi di dollari e risorse, e perseguono obiettivi di business, rimangano centrate sul bene dell’uomo. “Noi ci troviamo in una fase dell’innovazione tecnologica molto particolare, in cui ci sono dei player molto grandi, con bilanci e capitalizzazioni anche superiori a molti stati. Però questi grandi gruppi sono fatti da uomini, da persone che se non trovano soddisfazione in quello che fanno, se non condividono l’idea di missione per rendere “