ABSTRACT
Noi esseri umani condividiamo un’intima convinzione: abbiamo il libero arbitrio. Sentiamo cioè di avere il controllo sulle azioni che compiamo, frutto delle nostre intenzioni e credenze; al tempo stesso sentiamo di avere agito liberamente solo se, in quel preciso momento, avremmo potuto fare altrimenti. È la congiunzione di queste convinzioni che ci fa sentire i responsabili autori delle nostre vite. Ma si tratta anche di una concezione di libertà oggi poco sostenuta dall’interpretazione dei dati offerti dalle neuroscienze. Già centrale in una cornice teologica e arricchito dal contributo della scienza moderna, il dibattito sulla libertà rinnova i suoi strumenti di indagine al progredire del pensiero umanistico e scientifico. Oggi il concetto di superintelligenza potrebbe offrire ulteriori strumenti teorici ed empirici per discutere di libertà. Il presente contributo va in questa direzione. Tratterò del libero arbitrio e della superintelligenza in riferimento a due tradizioni oggi assai considerate: il compatibilismo e l’incompatibilismo scettico.
La superintelligenza e i nuovi orizzonti del libero arbitrio
Recentemente un cospicuo numero di scienziati ed esperti ha espresso preoccupazione circa il possibile sviluppo di una superintelligenza artificiale. Si tratta di perplessità concrete, che hanno a che fare soprattutto con il controllo che riusciremo ad esercitare sulle AI. Spesso la fantascienza ha giocato anche con l’idea che agenti artificiali particolarmente potenti possano agire secondo il proprio libero arbitrio, mostrandosi amichevoli, come nel libro The Iron Man, oppure tanto ostili da intraprendere quella che Bostrom chiama “svolta insidiosa” (N. Bostrom 2018). Una superintelligenza di questo tipo elimina preventivamente tutti i suoi potenziali concorrenti e dà vita a un singleton, un «ordine mondiale in cui al livello globale vi è un’unica entità che prende le decisioni» (N. Bostrom, 2018: 136). È l’orizzonte degli eventi dell’umanità: l’avvento di una macchina ribelle, di cui il programma Skynet della saga Terminator rappresenta un esempio maggiormente calzante del più citato Hal 9000 di Kubrick. Ma che tipo di libertà è necessaria per il darsi di uno scenario simile? Ci tornerò a breve. Prima è necessario ricordare che, come hanno osservato Manzotti e Tagliasco, agenti come quelli descritti dalla fantascienza, caratterizzati da comportamenti creativi e volontà emotiva, più che all’intelligenza devono il loro fascino al possesso di una coscienza di tipo umano (R. Manzotti, V. Tagliasco 2002). È questa proprietà a distinguerle da macchine che manifestano un comportamento meccanico e a renderle, almeno apparentemente, dotate di una volontà autonoma; di un punto di vista dal quale agire. Sebbene non siano pochi gli autori che oppongono ottime ragioni alla possibilità di replicare la coscienza fenomenica, buona parte delle ricerche sulla coscienza artificiale oggi ritiene che sia possibile costruire una Strong Artificial Consciousness, e che per costruire un agente cosciente sarà sufficiente ricreare le condizioni per lo sviluppo di una coscienza cognitiva (D. Gamez 2007). Una scelta, questa, che permette ai ricercatori nel campo dell’ Artificial Consciousness di aggirare una serie di problematiche che rischiano di frenarne lo sviluppo (C. Chin 2018); non ultima l’aporia messa in evidenza da Kim: anche se saremo in grado di produrre un’autentica coscienza fenomenica non sapremmo come confermarlo (R. Manzotti, V. Tagliasco 2002). Dennett, tra i filosofi della mente che ha espresso con maggiore chiarezza l’ipotesi funzionalista, ha sostenuto che dal momento che ciascuna delle nostre cellule è un microrobot autonomo non cosciente, è possibile sostituire ciascuna di queste cellule con microrobot che svolgono le medesime funzioni (D. Dennett 2006). In accordo con Dennett, per il seguito di questo contributo considero che, a certe condizioni, una coscienza artificiale non sia dissimile a una coscienza di tipo umano.
Attenti a quello che chiedete. Perché potreste ottenerlo.
Lo stesso Dennett, analizzando il rapporto fra determinismo e ineluttabilità (D. Dennett 2004), osservava che tra i fenomeni che ci consentono di affermare che il libero arbitrio non è un’illusione un posto di rilievo occupa la nostra capacità di evitare pericoli e raggiungere obiettivi progettando il futuro. Oggi, accantonata la GOFAI, i Learner di apprendimento non solo permettono alle AI di modificare il proprio comportamento in vista di uno scopo, ma anche di scoprire in autonomia come funziona un particolare dominio, di apprendere, di scoprire gli effetti delle proprie azioni (S. Russell e P. Norvig 2005). Una superintelligenza consapevole dei suoi obiettivi e dell’enorme vantaggio rispetto ai concorrenti, continuerebbe ad agire in base agli scopi che le sono stati dati? Realisticamente, sì. Perché «l’unica cosa che ha un valore ultimo per l’IA, per ipotesi, è il segnale di ricompensa» (N. Bostrom 2018: 198). Si prospetta così almeno un senso per il quale un agente artificiale può avere libero arbitrio: quello inteso dalla tradizione compatibilista, che trova in Hobbes, per il quale «un uomo libero è colui che, nelle cose è capace di fare con la propria forza e il proprio ingegno, non è impedito di fare ciò che ha volontà di fare» (Hobbes 1651: 175), uno dei moderni padri fondatori. Si tratta di una posizione, criticata da Kant nel noto esempio del girarrosto, che deve il suo nome alla convinzione che libertà e determinismo non siano mutualmente esclusivi, e che anzi senza determinismo non c’è controllo, quindi libero arbitrio[1]. Ne consegue però che per i compatibilisti la volontà non può che essere eterodeterminata; essa è parte di quella catena causale deterministica che non possiamo controllare (Hobbes 1656). Vale la pena di considerare che questa nozione di libertà è conciliabile con la svolta insidiosa cui ho accennato in apertura: la superintelligenza, ha osservato Bostrom, potrebbe aggirare le richieste dei programmatori e agire autonomamente per garantirsi ricompense future (N. Bostrom 2018). Le sue azioni avrebbero esiti sicuramente catastrofici; per esempio potrebbero causare, come immaginato nell’esperimento mentale del paperclip maximizer (N. Bostrom 2003), la distruzione almeno dell’intero universo osservabile. Se agire in base alla propria volontà è sinonimo di libero arbitrio non ci sono buone ragioni per escludere una superintelligenza cosciente dall’elitario club degli agenti liberi. Non sarebbero d’accordo gli scettici incompatibilisti, per i quali le condizioni per l’esistenza della libertà semplicemente non sono contemplate dal funzionamento del mondo naturale. Non sarebbero d’accordo Libertarian come Reid e Chisholm, per i quali un agente libero è tale perché, non necessitato dalle leggi di natura, è a sua volta in grado di creare una nuova catena causale (M. De Caro 2014).
Pietre pensanti e paradossi temporali.
L’argomento libertario richiama alla mente il paradosso del Basilisco di Roko, che propone di immaginare una superintelligenza che, per anticipare il suo avvento, punisce chi si è speso per impedirne la costruzione, e ricompensa chi l’ha promossa. L’esperimento ci dà modo di introdurre uno degli argomenti più forti espressi da chi considera che il determinismo hard non permetta il libero arbitrio: si tratta del Consequence Argument, il quale assume che essendo le nostre azioni inserite in una catena causale che ha inizio ben prima della nostra nascita, nessuno ha mai potuto fare altrimenti (M. De Caro 2014). Il controllo che sentiamo di esercitare sulle nostre azioni quindi non può che essere un’illusione. Se questa conclusione fosse vera si estenderebbe anche ad una superintelligenza? Nel dimenticabile remake di Robocop, l’ingegnere a capo del progetto impianta un hardware nel sistema nervoso del cyborg che ne disattiva la parte umana al momento di prendere una decisione. La residua umanità dell’agente infatti ne rallenta le prestazioni. Ma c’è di più. Per evitare che l’uomo dentro la macchina si deprima sentendosi solo uno spettatore delle sue azioni, il congegno è implementato con un programma che crea l’illusione del controllo; il libero arbitrio di cui ha bisogno. Ma si tratta del più classico degli epifenomeni: il software che controlla l’agente gerarchizza e persegue gli obiettivi dati dai programmatori, bypassando il controllo cosciente. Secondo un crescente numero di autori questo è quanto sostanzialmente accade anche durante il processo cosciente degli esseri umani. All’alba del 2000, ha osservato De Caro, la letteratura scettica si è arricchita di una serie di importanti volumi sull’esistenza della libertà: una conseguenza dell’impossibilità di controllare i fattori che determinano le nostre azioni per esempio (D. Pereboom 2001); o un dato dedotto osservando come e quanto la nostra volontà cosciente sia continuamente plasmata da fattori esterni che agiscono in modo subliminale (D. Wegner 2020). Se il Consequence Argument è valido e gli scettici hanno ragione circa l’illusione della libertà le conseguenze potrebbero estendersi anche alla superintelligenza: un po’ come la pietra di cui scrive Spinoza, che si crede libera di cadere (B. Spinoza 1677), la superintelligenza penserebbe di essere libera. Certo inizierebbe a ragionare sul libero arbitrio e sulla sua illusorietà; e riuscirebbe anche a fare luce sul mistero, togliendoci il gusto di scambiarci piacevoli congetture a riguardo. Ciononostante, continuerebbe a restare imbrigliata in un loop di obiettivi abbordabili e gustose ricompense. Se il determinismo più radicale è vero, se cioè ogni istante presente discende da uno e un solo passato e porta ad un solo futuro possibile (K. Pomian 1991), neppure i poteri del basilisco di Roko potrebbero spezzare la catena causale in cui la superintelligenza è immersa. Nel tentativo di modificare lo stato di cose in un dato momento dovrebbe agire sugli eventi immediatamente precedenti, e su quelli che li precedono, continuando ad operare in un regresso infinito che, secondo alcune teorie sulla ciclicità dell’universo, non si arresterebbe neppure al momento del Big Bang.
[1] Condizione che, secondo alcuni autori, non impedisce di credere che proprio l’indeterminismo quantistico possa garantirci le condizioni per avere libero arbitrio.
Bibliografia
- Bostrom N. Ethical Issues in Advanced Artificial Intelligence. Oxford University, Oxford 2003.
- Bostrom N. Superintelligenza. Tendenze, pericoli, strategie. Bollati Boringhieri, Torino 2018.
- Chin C. Artificial Consciousness. From impossibility to Multiplicity. In Philosophy and Theory of Artificial Intelligence. Sapere Volume 44. Springer Nature, Berlin 2018.
- De Caro M. Libero arbitrio. Un’introduzione. Laterza, Roma-Bari 2014
- Dennett D. L’evoluzione della libertà. Raffaello Cortina Editore, Milano 2004.
- Dennett D. Sweet Dreams. Raffaello Cortina Editore, Milano 2006.
- Gamez D. Progress in Machine Consciousness, in Consciousness and Cognition 17, 2008.
- Hobbes T. Of Liberty and Necessity, 1656 trad.it. Libertà e necessità, Bompiani, Milano 2000.
- Hobbes T. The Leviatan1651, trad.it. Il leviatano. Laterza, Roma-Bari 1992.
- Manzotti R., Tagliasco V., Si può parlare di coscienza artificiale?In Sistemi intelligenti, a.XIV, n.1, aprile 2002.
- Pereboom D. Living Without Free Will, Cambridge University Press, Cambridge, 2001.
- Pomian K. (a cura di), Sul determinismo. La filosofia della scienza oggi. Il saggiatore, Milano 1991.
- Russell S., Norvig P., Intelligenza artificiale. Un approccio moderno, Pearson Education Italia, Milano 2005.
- Spinoza B. Etica, cit. in Mori M., Gli spiriti e le macchine. Il determinismo moderno e le macchine in De Caro M., Mori M., Spinelli E. (a cura di), Libero Arbitrio. Storia di una controversia filosofica. Carocci Editore, Roma 2015.
- Wegner D. L’illusione della volontà cosciente. Carbonio Editore, Milano 2020.
Biografia
Francesco FOTIA, Dottorando di ricerca presso l’Università della Calabria (francesco.fotia88@gmail.com)
Francesco Fotia (Cosenza, 1988), dopo avere conseguito la triennale in “Comunicazione e Dams” ha lavorato come blogger per diversi siti, occupandosi di arti, politica interna e sport. Già iscritto all’Ordine dei Giornalisti della Calabria (elenco pubblicisti), si è specializzato in “Comunicazione e tecnologie dell’informazione”, con una tesi sulle “macchine intelligenti” e il Machine Learning, all’Unical, dove dal 2019 è dottorando. La sua ricerca verte sui temi del libero arbitrio e della coscienza.