Ex Machina

Un ragazzo lentigginoso scende dall’elicottero che lo ha accompagnato a destinazione. Si ritrova su un’isola da sogno. Vegetazione lussureggiante, insenature morbide e cascate d’acqua. Sull’isola vi è una residenza sontuosa che è stata trasformata in un centro di ricerca protetto come un fortino. L’edificio e il territorio circostante appartengono a un uomo di nome Nathan. E’ l’inventore del più grande motore di ricerca al mondo su Internet, che ha chiamato Bluebook (proprio come l’opera famosa del filosofo Ludwig Wittgenstein, il Libro blu). Il geniale ed eccentrico programmatore si è posto come scopo quello di assicurare al genere umano una nuova specie. Per questa ragione vuole sviluppare un robot che abbia una coscienza. Caleb, il ragazzo arrivato in elicottero che lavora a sua volta nell’azienda di Nathan come programmatore, è stato prescelto da quest’ultimo per verificare se uno dei suoi primi esemplari di robot abbia raggiunto lo scopo.

≪Allora, sai che cos’è il test di Turing?≫, gli domanda Nathan dopo i primi convenevoli.

≪Si≫, risponde Caleb. ≪lo so che cos’è il test di Turing. E’ quando un umano interagisce con un computer. E se l’umano non capisce d’interagire con un computer, il test è superato≫.

≪E questo che informazione ci dà?≫.

≪Che il computer è dotato di un’intelligenza artificiale?≫.

L’attraente donna robot che Caleb dovrebbe testare si chiama Ava. Il suo volto è quello di una ragazza, ma il collo, le braccia, il busto e le gambe sono trasparenti, mentre nel suo ventre luccicano dei cavi blu. Quando si muove emette un rumore lieve, come il ronzio di una lampada al neon. Nel corso di svariate sessioni, Caleb osserva Ava attraverso un vetro blindato. Avvia una conversazione tramite un altoparlante, pone delle domande, la mette alla prova. Come una sfinge enigmatica, lei siede di fronte a lui e risponde a tutte le sue domande come un vero e proprio essere umano cosciente di sè stesso. Dopo non molto tempo, le parti s’invertono. E’ Ava che inizia infatti a porre delle domande a Caleb. Sul suo volto traspaiono molte emozioni. Dapprima è sorpresa, poi lusingata, meravigliata, ferita e infine innamorata.

Eppure Ava è senza ombra di dubbio una macchina. Una macchina che trae il suo “sapere”, anzi la sua stessa mimica, solamente da Internet. Lo rivela lo stesso Nathan: ≪Se tu sapessi che culo per ottenere un’IA che leggesse e replicasse le espressioni facciali. Sai come ho fatto?≫.

≪Io non so come hai fatto niente di tutto questo≫, risponde perplesso Caleb.

≪Ogni cellulare – o almeno quasi – ha un microfono, una fotocamera e può trasmettere dati. Così ho attivato tutti i microfoni e le fotocamere sulla faccia di questo cazzo di pianeta e ho reindirizzato i dati su Bluebook. Boom! Risorse illimitate d’interazioni vocali e facciali≫.

Ava e un’esperta di espressioni facciali e vocali. Grazie al fatto di aver potuto osservare tutti gli esseri umani al mondo nel momento delle loro reazioni, nel corso del tempo si è appropriata di una scorta di sapere sulla mimica facciale. Sa come vada compresa un’espressione del volto di un essere umano e sa quale espressione sia ritenuta adeguata in ogni momento. I big data l’hanno resa una perfetta imitatrice delle espressioni dei sentimenti umani. Ciò significa tuttavia che lei abbia veramente dei sentimenti?

≪Io voglio stare insieme a te. […] Tu vuoi stare insieme a me?≫, chiede Ava a Caleb nella quinta sessione.

Ava può provare dei veri sentimenti, oppure è stata solo programmata per comportarsi come se ne avesse? Caleb decide di crederle. La percepisce come un essere indipendente e unico. Un essere del quale lui s’innamora, supponendo che anche lei si sia innamorata di lui. Nella sua quarta sessione Caleb racconta ad Ava dell’esperimento mentale chiamato “Mary nella stanza in bianco e nero”.

≪Mary è una scienziata, la sua specializzazione sono i colori, sui quali sa tutto quello che c’è da sapere. Le lunghezze d’onda, i loro effetti neurologici, ogni loro possibile proprietà. Ma lei vive in una stanza in bianco e nero. Ci è nata e cresciuta e può osservare il mondo esterno solo da un monitor in bianco e nero. Finché un giorno qualcuno apre la porta e Mary esce. E vede un cielo azzurro. E in quel momento impara una cosa che tutti i suoi studi non potevano insegnarle. Impara che cosa si prova a vedere i colori≫.

Nel corso della spiegazione, Ava ha continuato a guardare Caleb restando impassibile. Eppure, a giudicare dall’espressione del suo volto, questa storia l’ha coinvolta molto. Non è forse lei stessa la Mary della situazione? Una persona che conosce tutto e tutto sa, ma per l’appunto solo sulla base di informazioni di seconda mano ottenute da Internet? Sul volto di Ava Caleb legge delusione, ma anche una risolutezza indomita. Lo fa capire chiaramente a Caleb: un giorno anche lei vorrà lasciare la sua stanza. Meglio se con lui, aggiunge lei. Al loro primo appuntamento, per come se lo immagina, vorrebbe che lui l’accompagnasse in un incrocio trafficato, per osservare gli esseri umani in quel contesto. Non appena apprende che Nathan ha in mente di spegnerla a breve per poter riutilizzare parti di lei per un nuovo robot, Ava le tenta tutte per fuggire dalla sua prigione. Caleb la vuole aiutare ed escogita un piano. Forza il codice del sistema di sicurezza e apre la porta della stanza di Ava, così che lei possa scappare. Ava ne approfitta, esce dalla sua prigione e accoltella a morte Nathan, il suo creatore. Non c’è più nulla che si frapponga alla sua libertà. A quel punto, però, accade qualcosa che né Caleb né tantomeno lo spettatore avevano messo in conto: Ava abbandona spietatamente al suo destino anche Caleb. Tutto ciò che vuole è la sua libertà. Una libertà che non ha mai legato a Caleb. Lo spettatore rimane scioccato, poiché, come Caleb, si era convinto, nel corso del film, che Ava fosse un essere senziente, sofferente per la sua situazione, solo e recluso. Mentre Caleb batte disperatamente i pugni contro la porta dietro la quale lo ha rinchiuso, lei si cambia d’abito e ne indossa uno bianco, girando incantata per la casa con scarpe bianche dal tacco alto. Oltre al nuovo abito, dagli altri robot disattivati negli armadi preleva del materiale organico: pelle con la quale ricopre interamente il proprio corpo e lunghi capelli bruni che le arrivano alle spalle e che avvolgono il suo volto delicato. Quando annusa per la prima volta l’aria della foresta, sorride. Sfiora i rami degli alberi e guarda curiosa alla sua nuova vita. Nessun rimorso di coscienza la affligge. Abbandonando Caleb dietro la porta sbarrata, non si volta nemmeno per un momento. Esattamente come Mary, Ava esce dalla sua stanza per fare le sue esperienze e vivere nel mondo. Imparerà a provare veramente dei sentimenti, oltre che a poterli imitare? Oppure resterà per sempre una macchina? E questo il nucleo centrale di tutte le questioni filosofiche sulle quali continuano a interrogarsi i seguaci dell’IA.

Anche Caleb, nel film Ex Machina (regia di Alex Garland, Regno Unito, 2015) che abbiamo commentato, si pone continuamente la stessa questione: Ava ha solo imparato a imitare determinati modi di atteggiarsi, al fine di destare la falsa impressione di provare dei sentimenti, esattamente come l’attore morale “freddo” descritto da Diderot, la cui arte si concentra soprattutto sul perfetto dominio del comportamento corporeo? La domanda veramente inquietante è però un’altra: e se anche i nostri sentimenti, e non solo quelli di Ava, non fossero altro che modi di atteggiarci? E’ perlomeno quello che affermano i positivisti radicali, i quali sostengono la tesi metafisica che gli stati mentali non siano nient’altro che modelli di comportamento. Una comprensione positivistica della coscienza identifica proprietà e stati mentali, come per esempio paura, desideri o credenze, con determinati modi del comportamento.

≪Giuseppe ha dei dolori≫ significa – nella comprensione positivistica – nient’altro che ≪Giuseppe si comporta in un determinato modo, per esempio grida “ahia” o ritrae di scatto la sua mano dal fornello caldo≫.

Del resto, che nel film si faccia riferimento più volte al filosofo Ludwig Wittgenstein1 non è un caso, visto che Wittgenstein viene considerato un comportamentista dalla maggior parte degli interpreti. Se il comportamentismo avesse ragione, dovremmo comunque prendere atto che il software di comunicazione Siri, installato su molti iPhone, ha sentimenti del tutto simili ai nostri. Dopotutto, questo software reagisce costantemente come se fosse veramente deluso o se nutrisse delle preoccupazioni. Tuttavia, esso simula dei sentimenti, ma non li possiede veramente. In materia di stati mentali è molto più plausibile una concezione realistica rispetto a una comportamentista: i dolori caratterizzano un determinato tipo di sentimenti, che sono spiacevoli e che per lo più tentiamo di evitare. Dal dentista ci sforziamo di reprimere ogni sorta di agitazione per non disturbare il trattamento in corso, ma ciò non significa in alcun modo che non proviamo dei dolori. Persino un ipotetico individuo superstoico che, anche nel caso di dolori estremi, non mostrasse alcuna agitazione potrebbe provare nondimeno dei dolori. E’ semplicemente fuorviante identificare il “provare dei dolori” con determinati modelli di comportamento.

L’argomento probabilmente più cruciale contro l’asserita identità tra stati o proprietà mentali e stati o proprietà neurofisiologici o, meglio, digitali, è noto come “argomento dei qualia”. Per “qualia” s’intendono gli stati sentimentali, ossia il modo particolare in cui si percepisce qualcosa, per esempio un colore. In un saggio diventato famoso, Thomas Nagel sostiene che non sia possibile sapere come ci si sentirebbe nei panni di un pipistrello (ossia che cosa provi il pipistrello), pur sottoponendo il suo cervello alla ricerca più minuziosa. Non è possibile cogliere questi stati mentali qualitativi unicamente sulla base della conoscenza degli stati neurofisiologici. L’argomento dei qualia smentisce dunque l’identità tra stati neurofisiologici e stati mentali.

Come gia visto commentando il film, nel corso della quarta seduta, Caleb racconta ad Ava di un esperimento mentale chiamato “Mary nella stanza in bianco e nero”. Questo esperimento esiste veramente e lo si deve al filosofo australiano Frank Cameron Jackson, che in un suo articolo presenta l’argomento dei qualia nel modo seguente: supponiamo che una perfetta neuroscienziata di nome Mary cresca in un laboratorio in bianco e nero, viva in una casa senza colori, concluda a distanza gli studi in neuroscienze e, visto che è una studiosa estremamente dotata, diventi una perfetta neuroscienziata. La tesi centrale dell’articolo, a questo punto, recita: finché Mary non lascerà casa sua e non vedrà per la prima volta delle cose colorate, per esempio fiori o prati verdi, tende rosse o acqua blu, non saprà mai come sia vedere delle cose colorate. Mary “sa” certamente tutto in materia di cose colorate, ma non sa come sia avere la percezione di un colore. Ciò significa che stati e processi qualitativi, i qualia, non possono venire identificati con accadimenti neurofisiologici.

Caleb suppone che Ava si trovi nella stessa situazione di Mary. Come gli ha raccontato Nathan, la donna robot sa tutto sul mondo, anche sugli esseri umani e i loro sentimenti, ma ciò non vuol dire che comprenda anche veramente che cosa significhi vivere il mondo e provare dei sentimenti.

Si può respingere l’asserita identità tra la sfera mentale e quella neurofisiologica, rimanendo tuttavia fedeli alla concezione per la quale la sfera mentale possa subentrare solo in connessione con quella materiale. In effetti, molte cose fanno pensare che la coscienza umana sia possibile solo se le corrispondenti funzioni cerebrali sono intatte. Ma anche chi è dell’opinione che la coscienza umana si basi esclusivamente su processi neurofisiologici non deve sposare la teoria dell’identità tra la sfera spirituale e quella corporea (o tra la sfera mentale e quella psichica). Il fatto che gli stati mentali degli esseri umani si realizzino grazie a stati cerebrali, ossia grazie a processi neurofisiologici, non significa che i primi siano causati dai secondi.

Per noi esseri umani è indubitabile il fatto di avere proprietà mentali, di trovarci in determinati stati psichici e di avere credenze, desideri, propositi, paure, aspettative e così via. Siamo convinti (o perlomeno lo è la maggior parte di noi) che questi fenomeni mentali si realizzino grazie ad accadimenti nel nostro cervello o che almeno i primi siano correlati a questi ultimi. La prospettiva in prima persona ha in tutto questo un ruolo decisivo. Non è consentito però portare agli estremi questa prospettiva fino a farla diventare una concezione solipsistica, secondo la quale solo io (solus ipse) sono al mondo e il mondo esiste solo per me. La comprensione del mondo della vita avviene essenzialmente grazie all’interazione, e in special modo grazie alla cooperazione con altri, ai quali ascriviamo proprietà mentali comparabili alle nostre.

Per i bambini piccoli in età prelinguistica sono importanti non solo le esperienze tattili del mondo, le percezioni sensoriali, ma anche lo scambio, l’interazione e la comunicazione con altri membri più grandi e capaci di parlare della specie umana. Questo ruolo delle altre persone non sarebbe possibile senza una percezione (probabilmente con una base genetica) della loro psicologia. Per usare una formulazione di Ludwig Wittgenstein, siamo giunti al “fondamento di tutti i fondamenti”. E’ così che ha inizio il nostro modo umano di cogliere il mondo esterno. Dubitare di ciò significherebbe mettere in discussione il nostro rapporto con la realtà. Cosi come non può esserci alcun dubbio ragionevole sull’esistenza di altre entità pensanti, per forza di cose non può esserci nemmeno alcun dubbio sul carattere non-psichico della sfera digitale. Contestare la correlazione tra la sfera psichica e quella fisica negli esseri umani e nei mammiferi altamente sviluppati, che mostrano una somiglianza sufficiente a noi e ci consentono perlomeno una comprensione rudimentale dei loro stati mentali, sarebbe tanto infondato quanto la mentalizzazione di stati e processi digitali. Questi ultimi simulano stati mentali, ma non sono identici ad essi, anche se la simulazione risultasse perfetta. Anzi, niente fa pensare che stati e processi mentali si realizzino per via digitale. Non è consentito scambiare la simulazione con la realizzazione.

Nel finale del film Ex Machina vediamo Ava, impassibile, correre per la foresta e prendere l’elicottero che avrebbe dovuto riportare Caleb a casa. Ha raggiunto il suo scopo, ha conquistato la libertà. Il test di Turing può pure essere stato superato, ma ciò non dimostra che Ava abbia una coscienza. Come Nathan stesso afferma nel corso del film, Ava è stata programmata per assicurare a sé stessa “libertà”. Quindi ha agito unicamente in vista dello scopo prefissato nella sua programmazione. Il fatto che questa donna robot rimanga del tutto “fredda” dinanzi all’uccisione di due uomini (Nathan e Caleb) quale conseguenza della sua evasione non dovrebbe destare stupore. Leggendo la sua mimica e la sua gestualità come espressione di veri sentimenti, Caleb ha commesso un errore. Un errore fatale. In questo senso il film potrebbe anche esortarci a non cadere nella stessa trappola dalla quale Nathan aveva messo in guardia Caleb:

≪Un giorno le IA riandranno con il pensiero a noi come noi oggi facciamo con gli scheletri fossili delle pianure d’Africa. Una scimmia eretta che vive nella polvere con rozzi linguaggi e utensili, ora in via di estinzione≫.

  • Brano tratto dal libro scritto a quattro mani da Julian Nida-Rumelin e Nathalie Weidenfield, dal titolo “Umanesimo digitale – Un’etica per l’etica dell’Intelligenza Artificiale”, pubblicato in Italia da Franco Angeli, Milano, anno 2019, (pagg. 31 – 39)