Markus KRIENKE, “Intelligenza artificiale ed antropologia: la questione dell’intenzionalità”

ABSTRACT
Nella prima parte del paperche affronta il problema dell’intenzionalità tra intelligenza umana ed artificiale con la metodologia dell’antropologia filosofica, si arriva dalle posizioni filosofiche forti intorno all’intenzionalità (Brentano, Husserl, Heidegger) alla de-metafisicizzazione di questo concetto nell’antropologia nell’«era di Turing» (Floridi). Questa pars destruensche vede superata soprattutto la posizione di Searle e ammette un utilizzo trasversale dei concetti di “intelligenza” ed “intenzionalità” (applicabili anche alle macchine o agli animali), viene integrata dalla seconda parte del paper (pars construens) che elabora la specificità della coscienza dell’essere umano nella temporalità che soltanto un’intelligenza carbon-basedpermette, per giungere alla distinzione epistemologica importante tra soggettività (intelligenza, intenzionalità) e persona. L’antropologia filosofica nell’era di Turing dovrà quindi essere “personologica”.

Markus KRIENKE, Professore ordinario Facoltà di Teologia di Lugano
https://ftismilano.discite.it/ppd/carriera.jsp?d=121279
https://teologialugano.academia.edu/ProfMarkusKrienke


Intelligenza artificiale ed antropologia: la questione dell’intenzionalità

Con Brentano, l’intenzionalità è diventato il concetto centrale per opporsi alla naturalizzazione dello spirito umano[1]: la «persona non è né cosa, né sostanza, né oggetto. […]La persona è data in ogni caso come esecutrice di atti intenzionali,raccolti in una unità di senso» (Heidegger)[2]. Proprio per questa sua “resistenza” anti-riduzionista, non desta meraviglia se essa ha avuto una vera e propria ripresa nel dibattito intorno all’intelligenza artificiale. Non solo Husserl e Heidegger, ma anche antropologi come Spaemann ed altri ne hanno pertanto approfondito un’interpretazione anti-psicologica: la «relazione intenzionale con eventi fisici» del mentale impedisce la sua riduzione a mera funzione della materia (o dell’io). Affermando così un’«unità teleologica» tra le due sfere (spirituale e materiale), loro sciolgono il soggetto da ciò che è materiale, affermando contemporaneamente l’unità intenzionale della persona in quanto tale. Se ora Agazzi ritiene l’intenzionalità «l’anello mancante[…] fra l’intelligenza artificiale e quella naturale»[3], in nessun modo artificialmente riproducibile,e la vede come una sorta di possibile luogo di dialogo tra tecnica e uomo, si apre proprio da qui la speranza di arrivare – oltre il capitolo “classico” sull’intenzionalità aperto da Searle ed essenzialmente già concluso – a nuovi risultati nella questione antropologica circa l’IA, anche se ribadisce comunque che l’intenzionalità segna la differenza qualitativa del riferimento umano al mondo.

Intanto, a Searle l’intenzionalità come dimensione della coscienza di essere “diretta a” ciò che sono i suoi contenuti e in quanto tale come proprietà delle esperienze tipicamente umane, pareva il concetto predestinato per segnare l’irriducibile differenza tra intelligenza naturale e IA (cfr. la stanza cinese). Le sue riflessioni sull’Intentionality («the hardest book I ever wrote») reinterpretano la specificità dell’intenzionalità secondo Brentano come un fenomeno biologico-chimico seppure con struttura logica ma soprattutto irriducibile. Esso riporta ogni comunicazione a “significati” e quindi ad una relazione originaria al mondo, impedendo la riduzione di tale rapporto all’elaborazione di dati e del sapere a informazione. Contro tale identificazione, comunque naturalista, dell’intelligenza con l’intenzionalità è stato obiettato che “intelligenza” certamente non è identica con avere “stati intenzionali”, ma ne costituisce piuttosto l’apriori indispensabile, e inoltre che nella natura come nella tecnica “esiste” anche intenzionalità senza intelligenza, o perlomeno siamo costretti a riconoscerne per poter spiegare (meglio) delle funzionalità concrete (ad esempio comportamenti o previsioni di comportamenti di piante, cellule ecc.).

Mentre da un lato, quindi, l’intenzionalità si è rivelato come argomento indispensabile per comprendere meglio che cos’è l’intelligenza (e su questa domanda antropologicala ricerca sull’IA può dare e sta dando infatti un contributo rilevante), dall’altro lato essa fa comprendere come la classica “differenza aristotelica” (tra ciò che è intelligenza e ciò che non lo è) deve essere approfondita e casomai argomentata molto meglio. Certamente, comprendere l’intenzionalità in modo funzionalistico o comportamentistico come previsione di comportamenti di sistemi (Dennett) o come affermazione di una proprietà della realtà (Fodor) appaiono riduttive e non in grado di sfidare l’idea classica di intelligenza, ma se Brentano e Husserl hanno rilevato l’intenzionalità come momento distintivo dell’intelligenza, essa è certamente riscontrabile in sistemi complessi di IA e permette di chiamarli “intelligenza”. La differenza searliana tra sintassi e semanticità (quest’ultima come prodotta dall’intenzionalità), perciò, pare non reggere più dal momento che intenzionalità si riscontra senza dubbi anche nelle macchine intelligenti (ciò è stato dimostrato già dai successi di programmi IA in scacchi o “Go”), e vice versa anche quella umana, in fin dei conti, è in qualche modo causata da processi neuronali e sinassi (Minsky); e anche se si volesse distingueretra una sorta di “intenzionalità originaria” umana e una “derivata” dei sistemi artificiali, resta sempre il fatto che una differenza specifica tra “uomo” e “macchina” non è più categorialmente sostenibile. Così viene superata la tesi di Haldane, secondo il quale il naturalismo non può spiegare l’emergenza di intenzionalità[4]. Sistemi complessi possono senz’altro sviluppare fenomeni di intenzionalità originaria, e radicalmente individuati nel “soggetto” artificiale (emergentismo). Se secondo la «strategia intenzionale» (intentional strategy, Dennett) gli oggetti vengono quindi trattati come se fossero intenzionali per poter comprendere meglio il loro funzionamento, dove sta ancora la differenza specifica tra un’intenzionalità carbon-basede una silicon-based? A questo punto, l’argomento di Searle si rivolge forse contro il pensiero del suo autore, perché riscontrando “intenzionalità” in sistemi complessi, siano essi “naturali” o “artificiali”, probabilmente significa dovervi ammettere la presenza e l’esplicitazione di intelligenza: se poi «l’intenzionalità umana è prospettica e originaria»[5], perché non trovare qui una sua somiglianza con altre forme di intelligenza?

In ogni caso, questo discorso ci fa capire come stiamo in mezzo a un cambiamento epocale della comprensione di che cos’è “intelligenza”, come è avvenuta già all’inizio della modernità con la “svolta copernicana” (poi “importata” in filosofia da Kant) e i “terremoti” antropologici di Darwin e Freud (spesso non presi sul serio dalla stessa antropologia filosofica). «Contrariamente a ciò che Searle sembra sostenere, da un punto di vista strettamente scientifico è ugualmente impossibile sia affermare sia negare la presenza di intenzionalità nel senso riflessivo-trascendentale. In questo senso, l’intenzionalità è semplicemente invisibile per l’occhio scientifico»[6]. L’intenzionalità, quindi, non si può provare (e nemmeno il contrario). Secondo il funzionalismo, dobbiamo però relazionarci alle macchine intelligenti come se l’avessero, e in questo senso è chiaro che entreranno come soggetti nelle relazioni sociali, interpersonali, e anche economiche e giuridiche. Di conseguenza, nel “mondo di Turing” la filosofia costruirà le sue ipotesi senza il riferimento all’intenzionalità, ammettendo un modo plurale e non metafisico di ammettere le sue articolazioni tra macchine ed esseri umani (e, perché no, animali).  Per questo motivo ha ragione Floridi quando giudica la “svolta di Turing” delle stesse dimensioni di rivoluzione epistemologica pari a quelle di Copernico (o Cartesio), Darwin e Freud: «Turing ha cambiato la nostra antropologia filosofica»[7]. Stati intenzionali, e ciò è il contributo che la ricerca sull’IA dà all’antropologia filosofica, sono piuttosto attribuitiche non innati. «Il confine tra umano, naturale e artificiale si rivela […] estremamente labile e confuso, se non addirittura esso stesso artificiale»[8]. Hofstadter ha evidenziato questo problema epistemologico con l’osservazione pertinente che «non appena alcune funzioni mentali vengono programmate, si smette presto di considerarle come ingredienti essenziali di “pensiero reale”. L’insostituibile centro dell’intelligenza sta sempre nella prossima cos anche ancora non è stata programmata» per cui varrebbe: «IA è ogni cosa che ancora non è stata fatta» (Tesler’s Theorem)[9]. In questo senso, nella prospettiva della svolta epistemologica delineata da Floridi certamente “intelligenza” e “soggettività” devono essere attribuite ai sistemi intelligenti – sebbene l’utilizzo classico di questi termini sin dall’antichità o perlomeno come furono definiti nella modernità non lo consentirebbe.

Ora, che nell’antropologia di Turing è stata decostruita l’istanza “metafisica” dell’intenzionalità, come il discorso antropologico può situarsi sensatamente all’interno di questo nuovo paradigma? Passiamo dunque alla pars construensper l’antropologia. Significativamente, il riduzionismo dell’approccio funzionalista si rivela proprio quando si arriva alla comprensione della coscienzache antropologicamente indica una dimensione precedenteall’intelligenza e all’intenzionalità: per Minsky essa è semplicemente ciò «che cosa sappiamo dire del nostro recente passato mentale» e risulta quindi dal «riflettere sul nostro stato mentale»[10] che certamente per la sua riflessività è difficilmente da comprendere. Innanzitutto per antropologi come Max Scheler e Robert Spaemann, questa specifica coscienza umana è caratterizzata da una (doppia) negazione che implicitamente accompagna ogni atto intenzionale: la personanella sua unicità si riferisce al tutto (della sua esperienza) non nel senso dell’insieme dei dati e di possibili semantizzazioni, ma al tutto in quanto negazione di ogni reale concreto in quanto reale. Solo il distacco dal continuo biologico (tecnico) naturale le consente di concepirsi nella sua unicità e di riferirsi ai reali dell’esperienza come unici. Tale distacco, però, avviene nell’oltrepassare l’orizzonte del reale verso l’essere in quanto tale. Si tratta, in Scheler, della dinamica personale dello spirito che viene descritta da Spaemann dicendo che le persone «non solo pensano [cioè l’intenzionalità anche delle macchine], ma pensano anche un aldilà del pensiero», che a sua volta negano, per affermare la concretezza della realtà[11]. Non potendo seguire qui le implicazioni antropologiche di questo approccio, risulta interessante comprendere come questa coscienza della propria unicità probabilmente deriva dall’esperienza precisamente biologica dell’essere umano: esistenzialmente esperiesce di essere nato (Arendt), cioè «essee-gettato» nel mondo (Heidegger), e di «essere-per-la-morte». Per Heidegger, la coscienza è l’istanza che richiama l’uomo veramente a se stesso (all’esistenza autentica, secondo Heidegger), nella sua unicità, e pertanto oltrepassa la dimensione psicologica o gnoseologica, e si concretizza non a caso nella consapevolezza della morte, la cui possibilità viene esistenzialmente anticipata. Esperienza umana vuol dire quindi sempre anche (“deve sempre accompagnare”) esperienza della propria nullità, ed è questo il senso esistenziale della temporalità.

Certo si potrebbe criticare questo “excursus” fenomentologico-trascendentale come non pertinente per il confronto con l’IA, persino come metafisico. Esso serve, però, per evidenziare una precisa particolarità dell’esperienza umana che caratterizza la sua coscienza (e, se si vuole, quindi anche intenzionalità), ossia la temporalità dell’esserci umano: una “coscienza” silicon-basednon ha un rapporto esistenziale alla temporalità in quanto non affronta la propria “fine” (una volta che otterrebbe “diritti fondamentali”, così alcuni avvertono, sarebbe persino impossibile “spegnerli”). «La morte è la possibilità più propriadell’Esserci»[12] non vale per l’IA, e quindi anche la possibilità di trascendere tale limite esistenziale con forme di “religiosità” (o ateismo). C’è dunque una particolarità della coscienza carbon-based a differenza di tutto ciò che può essere intelligente ed intenzionale silicon-based, e questa è lo strato più profondo e basale della coscienza umana (molti la chiamano “coscienza fenomenica” a differenza dalla “coscienza cognitiva / d’accesso”). Si potrebbe parlare anche di un’intenzionalità distinta verso l’esistenza che ha solo l’essere umano, e in questo preciso fatto la sua intenzionalità si distinguerebbe da quella delle macchine intelligenti. Questa esperienza, poi, in Spaemann si traduce nella costituzione di una comunità specificamente umana, cioè l’essere originariamente inserito in una comunità di altri esseri umani che si riferiscono gli uni agli altri nell’intenzione di riconoscersi come persone a differenza da tutto ciò che non è persona. Una tale elaborazione antropologica, come si vede, coglie la sfida dell’IA come occasione per approfondire lo specifico della soggettività umana, che ora si può chiamare in un senso più appropriato persona.

È estremamente interessante, per il discorso antropologico, come un filosofo dell’800, Antonio Rosmini[13], abbia elaborato una distinzione tra soggettopersonaassolutamente adatta (con i necessari aggiornamenti) a elaborare questa necessaria svolta epistemologica di Turing nell’antropologia filosofica: egli definisce soggetto «un individuo senziente in quanto contiene in sè un principio attivo supremo». Con “principio attivo supremo” egli intende la capacità di autoregolarsi, con “senziente” l’intenzionalità nella sua connessione con la realtà, e con “individuo” l’autosufficienza. L’Io, invece, implica la «coscienza di se stesso» nei termini che abbiamo appena sviluppati, e in quanto con il «se stesso» si riferisce all’esperienza specifica umana che risiede nell’intenzionalità originaria all’esistenza, allora Rosmini parla di persona[14]. In questo modo Rosmini – confrontandosi criticamente con la sfida antropologica del trascendentalismo e dell’idealismo – ha teorizzato la distinzione-base più importante nell’antropologia, tra soggetto e persona, che né la filosofia classica né quella moderna hanno mai realmente elaborato.

Da qui emerge la proposta di questo contributo ossia di riconoscere, antropologicamente, alle macchine intelligenti – e in prospettiva (non necessariamente nell’odierno stato di sviluppo) – lo status di soggetti (con intelligenza ed intenzionalità, quindi anche con delle capacità morali), ma non di persone (lo stesso discorso varrebbe del resto per gli animali più evoluti). Sulla base di questa differenza, sarà possibile non solo di poter ammettere ogni possibile evoluzione delle scienze IA, ma soprattutto distinguere tra la “tipologia” umana di intelligenza ed intenzionalità, e quella artificiale, senza dover negare queste dimensioni ai sistemi intelligenti. Per questa sua costituzione antropologica, l’uomo certamente non può – transumanisticamente – diventare completamente «infomorfo» per cui sarà superata la sua limitatezza, debolezza e infine anche la morte – o perlomeno qualora tecnicamente avvenisse egli non sarebbe più persona. A livello delle possibilità tecnologiche non si può certamente escludere nessuno sviluppo (in)immaginabile in futuro, ma antropologicamente siamo obbligati (in senso kantiano) a definire e coltivare questa differenza non più aristotelica, ma – proporrei di chiamarla – “personologica”.

Bibliografia

  • E. Agazzi (ed.), The legacy of A. M. Turing, FrancoAngeli, Milano 2013.
  • M. C. Amoretti (ed.), Natura Umana Natura Artificiale, FrancoAngeli, Milano 2010.
  • P. Benanti, Le macchine sapienti. Intelligenze artificiali e decisioni umane, Marietti 1820, Bologna 2018.
  • D. Dennett, L’atteggiamento intenzionale, trad. it. di E. Bassato, Bologna, il Mulino 1993.
  • L. Floridi, Pensare l’infosfera. La filosofia come design concettuale, trad. it. di M. Durante, Raffaello Cortina, Milano 2020.
  • J. Fodor, Psicosemantica. Il problema del significato nella filosofia della mente, trad. it. di G. Farabegoli, il Mulino, Bologna 1990.
  • J. Haldane, Naturalism and Intentionality, in: Inquiry 32 (1989), pp. 305-322.
  • D. R. Hofstadter, Gödel, Escher, Bach: an Eternal Golden Braid, Basic Books, New York 1999.
  • M. Krienke, Bits al posto della morale? Intelligenza artificiale e Transumanesimo come sfida per la Dottrina sociale – il futuro è già iniziato?, in: La Società 27 (2019), n. 4, pp. 88-102
  • M. Krienke, «Good art makes you think». Su rischi e opportunità dell’IA per una nuova antropologia filosofica [articolo accettato e in via di pubblicazione su: Anthropologica, 2020].
  • M. Krienke, I robot distinguono tra bene e male? Aspetti etici dell’intelligenza artificiale, in: Aggiornamenti Sociali 71 (2020), pp. 315-321.
  • M. Krienke, Nuove prospettive sull’antropologia rosminiana, in: Rivista Rosminiana 114 (2020), pp. 1-25.
  • A. Lavazza, Filosofia della mente, La Scuola, Brescia 2015.
  • M. Minsky, La società della mente, trad. it. di G. Longo, Adelphi, Milano 19902.
  • A. Rosmini, Antropologia in servizio della scienza morale, a cura di F. Evain (Ediz. crit., 24), Città Nuova, Roma-Stresa 1981.
  • J. R. Searle, Minds, Brains, and Programs, in: The Behavioral and Brain Science 3 (1980), pp. 417-457.
  • R. Spaemann, Persone. Sulla differenza tra “qualcosa” e “qualcuno”, trad. it. di L. Allodi, Laterza, Roma-Bari 2005.

[1] Premessa metodologica: l’articolo si situa nella disciplina dell’antropologia filosofica a partire dalla quale cerca il dialogo interdisciplinare. Esso consiste chiaramente di due parti: dopo aver concesso la possibilità di intelligenza ed intenzionalità per l’IA, si elabora la dimensione irriducibile della coscienza umana che si esprime attraverso un’intenzionalità esistenziale di base. Ciò che alla posizione funzionalista può sembrare un salto di metodologia, esprime in realtà l’irriducibilità metodologica dell’esperiena esistenzale della persona umana. Su questo confine, certamente, si situa il dibattito interdisciplinare.

[2] M. Heidegger, Essere e tempo, a cura di F. Volpi, Longanesi, Milano 2005, § 10.

[3] E. Agazzi, Operazionalità e intenzionalità: l’anello mancante dell’intelligenza artificiale, in: M. C. Amoretti (ed.), Natura Umana Natura Artificiale, FrancoAngeli, Milano 2010, pp. 63-77, qui p. 77.

[4] Cfr. J. Haldane, Naturalism and Intentionality, in: Inquiry 32 (1989), pp. 305-322.

[5] A. Lavazza, Filosofia della mente, La Scuola, Brescia 2015, p. 49.

[6] M. Buzzoni, Is Frankenstein’s Creature a Machine or Artificially Created Human Life? Intentionality Between Searle and Turing, in E. Agazzi (ed.), The legacy of A. M. Turing, FrancoAngeli, Milano 2013, pp. 21-35, qui p. 29.

[7] L. Floridi, Pensare l’infosfera. La filosofia come design concettuale, trad. it. di M.Durante, Raffaello Cortina, Milano 2020, p. 130.

[8] M. C. Amoretti, Introduzione. Sul confine tra umano e artificiale, in: ead. (ed.), Natura Umana Natura Artificiale, FrancoAngeli, Milano 2010, pp. 7-41, qui p. 30.

[9] D. R. Hofstadter, Gödel, Escher, Bach: an Eternal Golden Braid, Basic Books, New York 1999, p. 601.

[10] M. Minsky, La società della mente, trad. it. di G. Longo, Adelphi, Milano 19902, pp. 292-293.

[11] R. Spaemann, Persone. Sulla differenza tra “qualcosa” e “qualcuno”, trad. it. di L. Allodi, Laterza, Roma-Bari 2005, p. 41.

[12] Heidegger, Essere e tempo, § 53.

[13] Rosmini, estremamente innovativo nel pensiero filosofico e teologico, e non a caso condannato dal Santo Uffizio nel 1888, particolarmente nel campo dell’antropologia ha delineato delle prospettive che non solo possono dialogare perfettamente con i risultati del pensiero novecentesco ma che sono ancora oggi sfidanti sia in filosofia che in teologia.

[14] Le definizioni si trovano in A. Rosmini, Antropologia in servizio della scienza morale, a cura di F. Evain (Ediz. crit., 24), Città Nuova, Roma-Stresa 1981, n° 767-769.


Biografia


Markus KRIENKE
, Professore ordinario Facoltà di Teologia di Lugano
https://ftismilano.discite.it/ppd/carriera.jsp?d=121279
https://teologialugano.academia.edu/ProfMarkusKrienke

Markus Krienke (1978): Professore ordinario di Filosofia moderna ed Etica sociale presso la Facoltà di Teologia di Lugano e Direttore della Cattedra Rosmini. Inoltre insegna Antropologia filosofica alla Pontificia Università Lateranense e Dottrina sociale della Chiesa alla Facoltà teologica dell’Italia Settentrionale di Milano. È visiting professor in Scienze politiche all’Università di Messina e fa parte del master in Etica della pace, diritti e tutela della persona nei contesti formativi ed economico produttivi all’Università di Bari. Dopo aver conseguito il Dottorato e la Habilitation presso l’Università di Monaco (2003-2009), ha ottenuto un Master in Filosofia presso l’Università di Trento nel 2011, e nello stesso anno le Abilitazioni scientifiche italiane per Filosofia teoretica e Filosofia morale.