Roberta De Monticelli “Festival Filosofia”

Festival Filosofia Festival Filosofia

Roberta De Monticelli
“Festival Filosofia”

festivalfilosofia.it


Roberta De Monticelli
Festival Filosofia, Carpi
Lezione Magistrale
Sabato 19 settembre 2020, ore 16:00
“Un nonsoché di architettante e armonico”

A partire dall’errore di Cartesio e Turing sulla coscienza, a quali condizioni una macchina può essere detta intelligente o pensante.

Roberta de Monticelli è professoressa di Filosofia della persona presso l’Università Vita-Salute San Raffaele di Milano. Ha contribuito a una reinterpretazione della tradizione fenomenologica e ha sviluppato una teoria dell’identità e della persona che si misura con le filosofie della mente e con le neuroscienze. Più di recente ha formulato un’etica civile per il tempo presente. Tra le sue opere: La conoscenza personale (Milano 1998); L’ordine del cuore (Milano 2003); L’allegria della mente (Milano 2004); Nulla appare invano. Pause di filosofia (Milano 2006); Esercizi di pensiero per apprendisti filosofi (Torino 2006); Sullo spirito e l’ideologia. Lettera ai cristiani (Milano 2007); Ontologia del nuovo (et al., Milano 2008); La novità di ognuno. Persona e libertà (Milano 2009); La questione morale (Milano 2010); La questione civile (Milano 2011); Sull’idea di rinnovamento (Milano 2013); Al di qua del bene e del male. Per una teoria dei valori (Torino 2015); Il dono dei vincoli. Per leggere Husserl (Milano 2018).


L’automa non replicabile
Leibniz, uno degli iniziatori della grande avventura intellettuale da cui è nata l’informatica, usava distinguere due generi di automi. Nella classe più estesa stavano gli orologi e gli altri marchingegni, compreso l’universo. In quella più esclusiva invece gli individui, cioè le sole cose dotate di unità, e dunque anche di vera esistenza. Fra questi tutti i viventi, e anche Iddio, se c’è. Naturalmente, anche noi. Questa distinzione è andata perduta.
Non so se parlate frequentemente con Alexa, o con Cortana, o con qualunque altra gentile signorina artificiale installata sui vostri dispositivi elettronici. Alexa la si può prendere per una persona: in questo caso supera il test di Turing – vale a dire il celeberrimo gioco ideato da Alan Turing nel 1950 per decidere se un computer possa comportarsi come un essere umano. Come ci racconta Giorgio Chinnici nel suo bellissimo libro Turing – L’enigma di un genio (Hoepli 2016), quando Deep Blue nel 1997 a New York sconfisse finalmente Kasparov, la cosa fece una certa impressione: ma di lì a poco la questione filosofica se un computer possa pensare sembrò perdere interesse. Anche per via del celebre esperimento mentale della stanza cinese, proposto da John Searle già nel 1980. Pensate a un umano chiuso in una stanza, che associa stringhe di parole inglesi a stringhe di parole cinesi, dando quindi in output una buona traduzione. Un po’come il Turco meccanico che nel Settecento sbaragliava i migliori scacchisti alla corte di Maria Teresa: con la differenza che l’uomo nascosto nella scatola sotto l’automa era un ottimo scacchista, e infatti l’automa era un fake, mentre il traduttore di Searle, che si comporta esclusivamente come l’esecutore di un algoritmo, non sa il cinese, quindi non traduce, anche se sembra. Difficile essere pensante, se ti manca la semantica. E se a furia di machine learning la impari, ti mancherà la pragmatica. E se impari anche quella, ti mancherà l’etica. E se ti programmano con le regole etiche giuste, ti mancherà la libertà di trasgredirle, e sarà quindi dubbio che tu le abbia osservate. E così via. Ma qual è la conseguenza che dobbiamo trarre da queste ragioni di scetticismo? Che una “macchina” non può “pensare”? O che il modello computazionale non è un buon modello della mente? La seconda pare più ragionevole. Perché limitare il concetto di macchina a quello di computer o macchina algoritmica? Perché non intendere per “macchina” un sistema fisico in grado di interagire con l’ambiente in cui si trova? Dopotutto il cervello umano è una “macchina” siffatta. E infatti: la filosofia della mente si è complessivamente ri-orientata verso il cosiddetto modello della mente incorporata, che interagisce con l’ambiente circostante, impara, cioè crea e stabilizza le proprie routines sinaptiche, si estende negli strumenti come gli smartphones. E mentre ricercatori e ingegneri informatici provano a simulare, con il modello delle reti neuronali, l’attività dei nostri cento miliardi di neuroni, le loro macchine ridiventano automi antropomorfi, come Sophia, il primo androide che ha ottenuto la cittadinanza di uno Stato (ancorché non particolarmente liberale in tema di genere, come L’Arabia Saudita).
E quindi? Tutto risolto? Sophia, con le sue sessantadue espressioni facciali e la plasticità dei suoi comportamenti sociali, non è la prova quasi vivente che una macchina può pensare, e ci riuscirà in futuro sempre meglio? Abbiamo superato il dualismo cartesiano fra mente e corpo, software e hardware, cognizione e azione: se gli umani sono più scafati di Sophia, è perché sono macchine biologiche. Abbiamo compiutamente “naturalizzato” il pensiero, la coscienza e il libero arbitrio. Torna tutto? Si può metterlo in dubbio.
Anche Leibniz ammette che siamo automi biologici. Anche lui è un critico del dualismo cartesiano. Ma prova a spiegare una differenza che il mainstream attuale ignora. Noi non siamo replicabili, a differenza di Sophia, Alexa, Cortana, una macchina di Turing, gli orologi e l’universo stesso. A differenza di tutte queste cose, abbiamo un’essenza individuale, un’ecceità, una vita irripetibile. Solo per questa ragione una persona è un ente di cui ci si può chiedere chi sia. Di nessun’altra cosa ha senso chiederlo: lo sanno anche i bambini. Eppure la nostra filosofia non sa più spiegare questa differenza…


IL POSTO DELLE PAROLE
ascoltare fa pensare

ilpostodelleparole.it