Remo TREZZA, “I “valori giuridici” possono mai trasformarsi in “variabili algoritmiche”? Brevi osservazioni su giurimetria, algo-crazia e algor-etica”

ABSTRACT
Lo sviluppo delle nuove tecnologie, specie quelle fondate sugli algoritmi e sull’intelligenza artificiale, ha portato ad uno studio complesso dei fenomeni giuridici che ad esse si connettono. Lo scritto mette in risalto il rapporto intercorrente tra algo-crazia e algor-etica, in particolar modo nel campo della decisione robotica e della c.d. “giustizia predittiva”, laddove vi potrebbe essere il rischio di introitare nelle macchine dei pregiudizi, oltre a quelli di cui ne sono già fisiologicamente dotate (c.d.biasdei bias). In definitiva, in un’ottica di difesa del giudice-uomo, a scapito di un giudice-robot, la dignità del decidere va salvaguardata, in funzione di una umanizzazione della macchina attraverso l’uomo e in una dimensione meccanicistica “servente e funzionalistica”. Il contributo, dunque, intende pervenire ad una risposta alla domanda se i “valori giuridici” possano mai essere trasformati in “variabili algoritmiche”.


I “valori giuridici” possono mai trasformarsi in “variabili algoritmiche”?
Brevi osservazioni su giurimetria, algo-crazia e algor-etica

I “valori giuridici” possono mai trasformarsi in “variabili algoritmiche”? Brevi osservazioni su giurimetria, algo-crazia e algor-etica
La società attuale è costellata di “microcosmi e macrocosmi ingegneristici[1]”, fondati su uno sviluppo quanto mai galoppante della tecnologia[2]in tutti i campi dell’esistenza umana, anch’essa costantemente alla ricerca di una “eudaimoniaelettronica[3]”. 

Uno dei settori più influenzati dall’innovazione – espressione generale con la quale si vuole intendere l’insieme dei nuovi mezzi tecnologici – è sine dubioquello giuridico[4], e più specificamente la branca della decisione giudiziale[5]

Si parla, a tal punto, di un giudice “robot[6]”, ovvero di colui che si spoglia degli usuali abiti di “humanitas giuridica” per indossare quelli di una “machina sregolata”, che la società, nel suo divenire frenetico, impone. Si pensi al fenomeno della “deprocessualizzazione[7]”, per cui il telematico[8]sta sempre più sostituendosi alle attività lavorative umane fondamentali. Fin quando la tecnologia serve l’uomo per “alleggerire” il carico attitudinale della monotonia, si potrebbe anche apprezzare per il suo servizio, contestando completamente una sua tale influenza sulle attività umane intellettive (si pensi alla decisione giudiziale robotica[9]e alla c.d. “giustizia predittiva[10]”). 

Il diritto sta indagando molto, specie in questi ultimi anni, soprattutto dopo l’adozione delle linee guida e degli orientamenti sulla robotica e sulla responsabilità giuridica degli automi emanati in sede europea[11], il rapporto intercorrente tra l’ordinamento giuridico, intriso di valori fondanti che ne hanno dato la forma e continuano ad esserne la sua “argilla plasmante”, e l’ordinamento c.d. “elettronico”, fondato su variabili algoritmiche di natura informatica che ne escludono la portata “trasparente ed egualitaria[12]”.

Con tal ultimo concetto si vuole intendere che la macchina, funzionante attraverso un “deus” esterno[13]– di per sé l’homus informaticus[14]– che ne immette dei contenuti, che per ciò stesso possono essere definiti “eteroimmessi”, non garantisce il rispetto di valori giuridici – posti, invece, dall’homo juridicus[15]– tra cui il valore della trasparenza delle decisioni[16]e del supremo assioma costituzionale dell’uguaglianza[17](art. 3 Cost.).

Un riscontro fattuale è rinvenibile – in una visione quanto mai comparatistica – nel noto caso Compas[18], laddove un giudice robotemetteva decisioni giudiziali automatizzate nella possibilità che potesse essere due volte più probabile che gli uomini di colore commettessero reato rispetto ai bianchi. Ci si chiede, a tal uopo, se la macchina giudicante abbia conoscenza del “valore giuridico ontologico” della parità di trattamento[19](rectius principio di uguaglianza formale e sostanziale), previsto non solo dall’art. 3 della Costituzione[20], quanto anche – facendo parte di un sistema di “monismo ordinamentale[21]” – tra le fonti più note, dagli artt. 20 e 21 della Carta dei diritti fondamentali dell’Unione europea[22]e dall’art. 14 della Convenzione europea dei diritti dell’uomo (CEDU)[23]

Altro caso rilevante, del quale i giuristi ne indagano portata e prospettive, è rappresentato dalla possibilità di ammettere nel processo un testimone elettronico[24](si veda il caso Alexa, l’apparecchio intelligente, assistente vocale di Amazon), come accaduto in un processo per femminicidio in Florida. L’indagine, sul punto, si dovrebbe concentrare sulla capacità processuale del testimone, analizzandone l’ammissibilità, i possibili limiti, ma soprattutto l’attendibilità, strettamente ancorata alla veridicità. È noto a tutti che le regole processuali in tema di testimonianza siano congegnate per l’accertamento della verità processuale – che non sarà mai verità vera o reale[25]–, fondate, dunque, sulla figura del testimone in quanto uomo, non in quanto macchina[26]. La macchina potrà pure essere intelligente, ma la neutralità[27]e la veridicità di quanto adduce processualmente chi potrà mai garantirla? Dovrebbe, in definitiva, costruirsi – in termini di ontologia giuridica – una nuova categoria della “testimonianza elettronica”, alla quale applicare le regole della “testimonianza umana”? Non sarebbe possibile pensare di applicare – specie analogicamente (artt. 12 e 14 disp. att. c.c.) – le regole processuali in siffatta circostanza. Bisognerebbe forse creare un codice del processo elettronico[28]? Sono sicuramente ipotesi “superfetanti”, che potranno trovare ingresso in altri sistemi ordinamentali, ma non certamente nel nostro, fondato sulla centralità della “persona umana” e non della “persona robotizzata[29]”. 

Il discorso risulta farsi ancora più stimolante quando si parla di “responsabilità giuridica dell’algoritmo” (rectiusrobot, automa), laddove – in particolar modo per i civilisti – vi è l’ombra dottrinale che palesa la costruzione dogmatica di una “personalità giuridica elettronica[30]” di cui le macchine sarebbero dotate e, per tale ragione, l’ordinamento ne dovrebbe dare riconoscimento. Dal punto di vista della responsabilità[31](e qui bisognerebbe anche approfondire di che natura giuridica sia: contrattuale, extracontrattuale, precontrattuale, da contatto sociale), sarebbe più semplice, così come accade per la persona fisica umana, che acquisisce la capacità giuridica dalla nascita (art. 1 c.c.) e la capacità di agire al compimento della maggiore età (art. 2 c.c.), imputare la responsabilità giuridica ad un automa dotato di una personalità elettronica. All’attribuzione della personalità elettronica consegue, in astratto, anche l’attribuzione della dignità elettronica[32]? La macchina può mai avere una dignitas[33]?

Di grande rilievo risulta essere anche il caso posto all’attenzione del Consiglio di stato italiano, in merito ad un sistema informatico (rectiussoftware) utilizzato per l’assegnazione delle docenze in Italia[34]. L’alta giurisdizione amministrativa ha avuto modo di chiarire che il trattamento algoritmico e la procedimentalizzazione automatizzata seguita da un softwarepuò essere utilizzata solo se vengono rispettati i principi di neutralità e trasparenza[35]. Si può mai pensare che la macchina sappia cosa si intenda per “trasparenza”? L’uomo, che dall’esterno la “addomestica”, dovrebbe saper inserire la “variabile” trasparenza al suo interno, ma in un’ottica universalmente intesa e non in una visione personalistica dell’introduttore[36]. Si rischierebbe di creare, oltre ai bias (rectiuspregiudizi) di cui fisiologicamente è dotato un automa, ulteriori bias, di “natura umana indotta”, i c.d. “bias deibias[37]”. In tale ultimo caso, dunque, la responsabilità per un errato procedimento sarà della macchina o dell’uomo inducente? Potrà forse anche essere del produttore della macchina stessa qualora vi siano difetti intrinseci[38]? Temi certamente caldi su cui indagare. Si pensi soltanto agli smart contracts, alle modalità di trasmissione del denaro telematiche (bitcoinblockchain)[39], alle driverless cars[40]

Ritornando alla decisione robotica, quale sarà il procedimento seguito dalla macchina per addivenire all’esito finale? Chi insegnerà alla macchina decidente, all’automa decisore, quali siano i valori processuali umani da rispettare per giungere ad una decisione conforme ai “principi costruttivi[41]” del nostro sistema ordinamentale? Solo l’homo informaticus? Sicuramente quest’ultimo non sarà in grado di farlo perché avrà bisogno di competenze esterne. Potrà mai parlarsi di “giusto processo elettronico[42]”? Si potranno mai cambiare le coordinate normative e conseguenzialmente ermeneutiche circoscritte nell’alveo di quanto stabilisce la “tavola dei valori processuali[43]” previsti dagli artt. 111 Cost., 6 CEDU e 14 Patto internazionale sui diritti civili e politici[44]

Come sarà garantita la imparzialità del giudicante[45]? La macchina è imparziale? Colui che immette le variabili nel sistema sa esattamente cosa debba intendersi per imparzialità e indipendenza del giudizio[46]

In sostanza, potrà mai trovare nel nostro ordinamento legittimazione costituzionale un giudice robot, laddove l’art. 101 Cost. stabilisce che “i giudici sono soggetti solo alla legge”? Ovviamente la nostra Costituzione fa espresso riferimento al giudice persona fisica. Ancora, una decisione emessa da un automa, in termini di pregiudizialità processuale, potrà essere utilizzata da un giudice umano ai fini della sua decisione[47]?

Si faccia riferimento – anche per ancorarci al contesto storico che stiamo attraversando[48]– all’applicazione c.d. “Immuni[49]”, funzionale al distanziamento sociale, nella quale vanno introitati dati – anche sensibili – dei cittadini per lo scopo ultimo della tutela “bidirezionale e polivalente” della salute pubblica. Oppure ai robot “cani[50]” utilizzati – non nel nostro Paese – tra le persone al fine di farne rispettare il distanziamento. Oppure, ancora, si pensi ai droni[51]– ammessi in questa notevole crisi epidemiologica dall’Ente Nazionale dell’Aviazione Civile anche in Italia – usati per “scovare” i cittadini che non siano ligi al rispetto delle regole emanate per il contenimento del virus. Non è più l’uomo che controlla l’uomo, come diceva qualcuno. Si arriverà al punto – così come già accade per certi versi – in cui sarà la macchina a controllare l’uomo? L’uomo dovrà sempre controllare la macchina. Non si può pensare che quest’ultima possa fare da sola. Deve essere “vigilata[52]”. A tal punto, alla stregua del quis custodiet ipsos custodes[53], chi controllerà il controllore umano della macchina[54]? Se vi è il raggiungimento del valore giuridico fondamentale del benessere psico-fisico della persona umana[55]e della sua autodeterminazione[56], allora ben vengano le invenzioni tecnologiche. Si badi, per esempio, ai robotnel campo della medicina[57], la cui questione involge anche temi bioetici, alle applicazioni utilizzate in ambito sanitario e nelle pubbliche amministrazioni per garantire la velocità di effettuazione di visite mediche e diagnosi[58]e il binomio efficienza-efficacia dell’azione amministrativa[59].

Il percorso decisionale deve essere umano, altrimenti perderebbe la sua essenza. Potrà forse divenire automatizzato in alcune sue fasi, ma non nel complesso. Chi o cosa potrà mai sostituire il lavorio intellettivo e argomentativo del giudice? In fondo, nella “dignità dell’uomo[60]”, che è il valore più alto dell’essere, rientra a pieno titolo la “dignità della decisione” che, invece, è il valore più alto dell’intelletto. La tecnologia “serve” l’uomo e all’uomo e mai l’uomo può diventare “servo” della macchina. Non si può permettere la “disumanizzazione dell’uomo attraverso la macchina”; sarebbe, piuttosto, auspicabile, sempre in termini di tecnologia “funzionale e servente” all’uomo, una “umanizzazione della macchina attraverso l’uomo[61]”. 


*Dottorando di ricerca in Scienze giuridiche (curriculumcivilistico) presso il Dipartimento di Scienze giuridiche dell’Università degli studi di Salerno. Già tirocinante presso la Corte Suprema di Cassazione (sez. I civ.). Tutora contratto di Diritto civile e Diritto processuale civile presso il medesimo Dipartimento. Specializzato in “La protezione dei diritti fondamentali nello spazio giudiziario europeo”. Componente del comitato scientifico della Scuola Giuridica Salernitana. Autore di una monografia, curatele, saggi, articoli e note a sentenza pubblicate su Riviste Anvur di classe A e su riviste scientifiche.  

[1] Tra tutti, in tema di “invenzioni ingegneristiche” fondate sull’utilizzo proprio ed improprio dell’Intelligenza artificiale, si veda E. Spagnuolo,8 invenzioni geniali del 21esimo secolo, in Focus, 7 febbraio 2015, consultabile online. L’A. pone l’accento su alcune innovazioni “a dir poco geniali”, tra le quali la finestra autopulente, il grattacielo invisibile, la piscina che pulisce il fiume, il cemento mangia smog, l’acqua potabile prodotta da un cartellone stradale etc… Si consenta rinviare, per un maggiore approfondimento, a F. Faggin, Silicio. Dall’invenzione del microprocessore alla nuova scienza della consapevolezza, Mondadori, Milano, 2019. 

[2] È d’uopo, sul punto, rinviare a V. Frosini, Il diritto nella società tecnologica, Giuffrè, Milano, 1981; V. Zeno-Zencovich, Informatica ed evoluzione del diritto, in Il diritto dell’informazione e dell’informatica, n. 1/2003, p. 89 ss.; M. Mattioli Ragona(a cura di), L’informatica del diritto, Giuffrè, Milano, 2004; P. Moro(a cura di), Etica, informatica, diritto, Franco Angeli, Milano, 2008; M. Durante, U. Pagallo(a cura di), Manuale di informatica giuridica e diritto delle nuove tecnologie, UTET, Torino, 2012;G. Sartor, L’informatica giuridica e le tecnologie dell’informazione, Giappichelli, Torino, 2012; U. Pagallo,Il diritto nell’età dell’informazione. Il riposizionamento tecnologico degli ordinamenti giuridici tra complessità sociale, lotta per il potere e tutela dei diritti, Giappichelli, Torino, 2014; M. Pietrangelo, Il diritto e le tecnologie informative: qualche proposta per il nuovo millennio, in G. Peruginelli-M. Ragona, L’informatica giuridica in Italia. Cinquant’anni di studi, ricerche ed esperienze, ESI, Napoli, 2014; G. Ziccardi, Il computer e il giurista, Giuffrè, Milano, 2015; G. Ziccardi, P. Perri, Tecnologia e diritto. Vol. 1: Fondamenti d’informatica per il giurista, Giuffrè, Milano, 2019; G. Ziccardi, P. Perri, Tecnologia e diritto. Vol. 2: Informatica giuridica, Giuffrè, Milano, 2019; G. Ziccardi, P. Perri, Tecnologia e diritto. Vol. 3: Informatica giuridica avanzata, Giuffrè, Milano, 2019. 

[3] Vedi Aristotele, in Etica nicomachea(EN, X, 7), il quale afferma: “…se l’attività dell’intelletto essendo contemplativa, sembra eccellere per dignità e non mirare a nessun altro fine all’infuori di se stessa e ad avere un proprio piacere perfetto (che accresce l’attività) ed essere autosufficiente, agevole, ininterrotta per quanto è possibile all’uomo e sembra che in tale attività si trovino tutte le qualità che si attribuiscono all’uomo beato: allora questa sarà la felicità perfetta dell’uomo, se avrà la durata intera della vita”. Accostando tale affermazione alla società nella quale viviamo, si potrebbe prospettare una nuova concezione di felicità, quella fondata sull’utilizzo “all’ennesima potenza” della tecnologia. Si veda, per una visione propriamente filosofica del concetto, A.M. Pacilli, La nostra felicità è “Eudaimonia”?, in Nel futuro, Web magazine di informazione e cultura, consultabile online. Vedi, inoltre, G. Ceredi, Eudaimonia. Fioritura umana, daimon e felicità, Evolvo edizioni, Verbano, 2014. 

[4] Sul rapporto tra diritto e nuove tecnologie, si rinvia a M. L. Montagnani, M. Borghi,  Proprietà digitale. Diritti d’autore, nuove tecnologie e digital rights management, Egea editore, Milano, 2006; P. Perri, Protezione dei dati e nuove tecnologie. Aspetti nazionali, europei e statunitensi, Giuffrè, Milano, 2007; V. S. Destito, G. Dezzani, C. Santoriello, Il diritto penale delle nuove tecnologie, CEDAM, Padova, 2007; G. Ziccardi, Etica e informatica. Comportamenti, tecnologie e diritto, Pearson editore, Milano, 2009; A. Santosuosso, Diritto, scienza, nuove tecnologie, CEDAM, Padova, 2016; Aa. Vv., Il diritto del Web. Reti, intelligence e nuove tecnologie. Manuale giuridico ed operativo di Internet, Primiceri Editore, Padova, 2017; C. Faralli,Diritto, diritti e nuove tecnologie, Editoriale scientifica, Napoli, 2018; M. Iaselli, Diritto e nuove tecnologie. Prontuario giuridico-informatico, Altalex, 2018; P. Comoglio, Nuove tecnologie e disponibilità della prova. L’accertamento del fatto nella diffusione delle conoscenze, Giappichelli, Torino, 2018; E. Rullani, F. Rullani, Dentro la rivoluzione digitale. Per una nuova cultura dell’impresa e del management, Giappichelli, Torino, 2018; E. Barrico, A. Sitzia, Potere di controllo e privacy. Lavoro, riservatezza e nuove tecnologie, Walters Kluwer, Padova, 2018; L. Palazzani, Tecnologie dell’informazione e intelligenza artificiale. Sfide etiche al diritto, Studium editore, Roma, 2018; M. Farina, Elementi di diritto dell’informatica, Walters Kluwer, Padova, 2019; A. Santosuosso, Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Mondadori, Milano, 2020. 

[5] Fra tutti, si veda A. Carleo(a cura di), Decisione robotica, Il Mulino, Bologna, 2019. 

[6] In tema di robot e diritto, vedi, fra tutti, N. Irti, Il tessitore di Goethe (per la decisione robotica), in Decisione robotica(a cura di A. Carleo), Il Mulino, 2019, pp. 17-22. Inoltre, sempre nella stessa curatela, si veda il contributo di G. Mammone, Considerazioni introduttive sulla decisione robotica, pp. 23-30, con ricca bibliografia. L’A., infatti, rimanda ai contributi di G. Canzio, Il dubbio e la legge, in Diritto penale contemporaneo; CNB (Comitato Nazionale Bioetica) e CNBBSV (Comitato Nazionale Biosicurezza, Biotecnologie e Scienze della Vita), Sviluppi della Robitca e della Roboetica, parere 17 luglio 2017, in www.presidenza.governo.it;D. Di Sabato, Gli smart contracts: robot che gestiscono il rischio contrattuale, in Contratto e impresa, 2, 2017, p. 378; M. Faioli, Con la “blockchain” migliorano politiche del lavoro e previdenza, in Il Sole 24 ore, 17 agosto 2018, consultabile online;D. Falcinelli, Il dolo in cerca di una direzione penale. Il contributo della scienza robotica ad una teoria delle decisioni umane, in Archivio penale, consultabile online; N. Irti, La crisi della fattispecie, in Rivista di diritto processuale, n. 1/2014, p. 36; A. Santosuosso, C. Boscarato, F. Caroleo, Robot e diritto: una prima ricognizione, in Nuova giurisprudenza civile commentata, II, 2012, p. 494; M. Senor, Come gli algoritmi predittivi cambieranno l’amministrazione della Giustizia, in www.forumpa.it, consultabile online; P. Serrao D’Aquino, Digito ergo sum: la tutela giuridica della persona dagli algoritmi, in Questione giustizia, consultabile online. Nella medesima curatela, in merito al rapporto intercorrente tra diritto e robotica, si veda, inoltre, A. Carcaterra, Machinae autonome e decisione robotica, pp. 33- 61, con bibliografia di carattere comparatistica e internazionale.

[7] Risalente, ma fondamentale, l’analisi di R. Lupi, Meno processi per un processo più efficiente, in Ilsole24ore, 1 luglio 2011, consultabile online, ove l’A. si sofferma sul fatto che “processare meno” sia “processare meglio”.

[8] Sul processo telematico, fra tutti, si veda F. Buffa, Il processo civile telematico. La giustizia informatizzata, Giuffrè, Milano, 2002; S. Ines, I. Pisano, Manuale di teoria e pratica del processo amministrativo telematico, Giuffrè, Milano, 2013; V. Di Giacomo, Il nuovo processo civile telematico, Giuffrè, Milano, 2015; G. Ruffini, Il processo telematico nel sistema del diritto processuale civile, Giuffrè, Milano, 2019; L. Ripa, F. Alaimo,Il processo tributario telematico. Tra ruolo del difensore, compiti di segreteria e attività del giudice. Gli strumenti necessari. Dal conferimento dell’incarico all’udienza a distanza, Key editore, Milano, 2019; A. Ciriello,Il processo telematico. Civile, penale, amministrativo, tributario, contabile, Key editore, Milano, 2019. 

[9] Vedi M. Luciani, La decisione giudiziaria robotica, in Decisione robotica(a cura di A. Carleo), Il Mulino, 2019, pp. 63-96; Vedi, D. De Kerckhove, La decisione datacratica, in Decisione robotica(a cura di A. Carleo), Il Mulino, 2019, pp. 97-110. Qualche spunto si trova in E. Vincenti, Il “problema” del giudice-robot, in Decisione robotica(a cura di A. Carleo), Il Mulino, 2019, pp. 111-124.

[10] Per “giustizia predittiva” deve intendersi la possibilità di prevedere l’esito di un giudizio tramite alcuni calcoli; non si tratta di predire tramite formule magiche, ma di prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi. Il diritto può essere costruito come una scienza, che trova la sua principale ragione giustificativa nella misura in cui è garanzia di certezza: il diritto nasce per attribuire certezza alle relazioni umane, tramite una complessa attribuzione di diritti e doveri (in Enciclopedia Treccani). Vedi, in tema, F. Rundo, A. L. Di Stallo, Giustizia predittiva: algoritmi e deep-learning, in sicurezza e giustizia, 2019, consultabile online, pp. 31-34; Aa. Vv., La giustizia predittiva tra machine learning e certezza del diritto, in VGen, consultabile online; A. De La Oliva Santos, “Giustizia predittiva”, interpretazione matematica delle norme, sentenze robotiche e la vecchia storia del “Justizklavier”, in Rivista Trimestrale Diritto e Procedura Civile, n. 3/19, pp. 883-895. Vedi, inoltre, C. Morelli, Sentenze, predittività prudente. Il libero convincimento del giudice è valore primario, in Italiaoggi, 5 luglio 2019, p. 5; M. Versiglioni, Se l’algoritmo scrive la sentenza che almeno rispetti la logica, inIlsole24ore, 2019, consultabile online. Si consenta rinviare, per una visione “panoramica” sulla decisione meccanicizzata, alla Recensione redatta daR. Trezzasul volume Decisione robotica(a cura di A. Carleo), in Istituzioni Diritto Economia, n. 2/2020, consultabile online. Vedi, in proposito, sul punto, M. Maugeri,I robot e la possibile “prognosi” delle decisioni giudiziali, in Decisione robotica(a cura di A. Carleo), Il Mulino, 2019, pp. 159-164. 

[11] Vedi la Risoluzione del 16 febbraio 2017, recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”. Inoltre, si veda anche la Risoluzione del Parlamento europeo del 12 febbraio 2019, recante “Una politica industriale europea globale in materia di robotica e intelligenza artificiale”, in cui un’intelligenza artificiale (IA) e una robotica trasparenti e che integrino la dimensione etica racchiudono il potenziale di arricchire le vite e sviluppare ulteriormente le capacità di ciascuno, sia come individui che per il bene comune (cfr. considerando lett. a).

[12] Vedi A. Alongi, Intelligenza artificiale, algoritmi e trasparenza. La lezione britannica, in www.labparlamento.it., 27 giugno 2018, consultabile online; S. Coppola, Algoritmi e processo decisionale automatizzato, tra giustizia amministrativa e GDPR: che c’è da sapere, in www.cybersecurity360.it., 19 settembre 2019, consultabile online; G. Del Gamba, S. Leucci, Decisioni automatizzate dagli algoritmi: le tutele Gdpr e le eccezioni, in www.agendadigitale.it., 12 febbraio 2019, consultabile online. Vedi, inoltre, a proposito del rapporto tra algoritmi e trasparenza, A. Longo, Serve una legge per la Pa per la trasparenza negli algoritmi, in Il Sole 24 ore, 16 settembre 2019, consultabileonline; M. Gabusi, Intelligenza Artificiale: verso nuove esigenze di trasparenza? L’open source rende il codice aperto. Ma davvero è possibile capire (e replicare) gli algoritmi dell’AI?, in www.ingenium.it, 23 luglio 2019, consultabile online; E. Lenzi, Intelligenza artificiale e trasparenza degli algoritmi; un interessante caso di applicazione nella pubblica amministrazione, in www.studiolegalestefanelli.it, 19 giugno 2019, consultabile online; M. Bonafè, C. Trevisi, Intelligenza artificiale, l’algoritmo “trasparente”: un rebus ancora da sciogliere, in www.agendadigitale.it, 15 maggio 2019, consultabile online; R. Antonucci, La trasparenza dell’algoritmo è necessaria, per la giustizia amministrativa e il Garante, in www.agendadigitale.it., 9 ottobre 2019, consultabile online; G. Falsano, Le decisioni automatizzate nella pubblica amministrazione: tra esigenze di semplificazione e trasparenza algoritmica, in Media Laws, Rivista di Diritto dei Media, n. 3/2019, consultabile online.

[13] Deus ex machinaè una frase latina mutuata dal greco “Mechanè”, in greco antico: ἀπὸμηχανῆς θεός (“apò mēchanḗs theós”) che significa letteralmente “divinità (che scende) dalla macchina”. Originariamente, indica un personaggio della tragedia greca, ovvero una divinità che compare sulla scena per dare una risoluzione ad una trama ormai irrisolvibile secondo i classici principi di causa ed effetto. L’intervento ex machinadegli dei veniva usato, soprattutto dal tragediografo Euripide, per risolvere felicemente una situazione intricata e apparentemente senza possibile via di uscita. Secondo Aristotele, quest’espediente non deve interferire con la λύσις, ovvero con lo scioglimento dell’opera, ma deve avvenire fuori dall’azione drammatica. Nel mondo antico un uso eccessivo del deus ex machinaera inoltre considerato prerogativa di autori poco raffinati che non sarebbero riusciti a sciogliere altrimenti trame complesse. Interessante e stimolante risultano essere le osservazioni di F. Mammì, V. Giannettoni,New Deal Lab, focus “Deus ex Machina”: etica e nuove tecnologie messe a confronto, in apuntadipenna.it, 1 maggio 2019, consultabile online; R. Notte, Deus ex machina. Una storia di uomini e robot (Parte prima), in parol.it, consultabile online, ove si parla di vero e proprio “mito” del robot. 

[14] L’espressione è mia. Viene, però, dalla lettura attenta del contributo di R. Borruso, S. Russo, C. Tiberi,L’informatica per il giurista. Dal Bit a internet, Giuffrè, Milano, 2009; D. Casalegno,Uomini e computer. Storia delle macchine che hanno cambiato il mondo, Hoepli, Milano, 2010; Aa. Vv., Human-computer interaction. Fondamenti teorici e metodologici per lo studio dell’interazione tra persone e tecnologie, Pearson editore, Milano, 2012. Da ultimo, J. Barrat, La nostra invenzione finale. L’intelligenza artificiale e la fine dell’età dell’uomo, Nutrimenti editore, Roma, 2019; E. Brynjolfsson, A. McAfee, La macchina e la folla. Come dominare il nostro futuro digitale, Feltrinelli, Milano, 2020. 

[15] L’espressione, a me molto cara, prende spunto dall’opera di A. Supiot,Homo juridicus. Saggio sulla funzione antropologica del diritto, Mondadori, Milano, 2006, ove l’A. rilegge la scrittura, la legge e l’organizzazione sociale che egli stesso ha forgiato a propria immagine attraverso la costruzione di un senso condiviso, in grado di regolare la vita in comune e di giustificare il posto di ciascuno su questa terra. La storia dell’Occidente può essere letta come la storia di questo senso condiviso e vincolante, come la storia delle credenze fondatrici dell’essere umano: il rispetto della parola data e di una legge uguale per tutti. L’A. rilegge, dunque, tale storia in un’epoca (la nostra) in cui il declino della sovranità, l’infeudamento delle libertà e il progressivo scollarsi di potere e autorità minano più che mai la centralità del diritto e dunque i fondamenti stessi della nostra cultura. 

[16] Vedi nota 12. 

[17] Sul punto, vedi, assolutamente non in maniera esaustiva, P. Perlingieri,Il diritto civile nella legalità costituzionale secondo il sistema italo-comunitario delle fonti, ESI, Napoli, 2006, specie p. 448 ss.; M. Cartabia, T. Vettor, Le ragioni dell’uguaglianza. Atti del 6° Convegno della facoltà di giurisprudenza(Milano, 15-16 maggio 2008), Giuffrè, Milano, 2009; G. Silvestri, Dal potere ai principi. Libertà ed eguaglianza nel costituzionalismo contemporaneo, Laterza, Bari, 2009; S. Tonolo, Il principio di uguaglianza nei conflitti di leggi e di giurisdizioni, Giuffrè, Milano, 2011; C. Giorgi, Il progetto costituzionale dell’uguaglianza, Ediesse editore, Roma, 2014; G. Manzo, Le basi teoriche del principio di eguaglianza, Youcanprint, Treviso, 2015; F. Vari, L’affermazione del principio dell’eguaglianza nei rapporti tra privati. Profili costituzionali, Giappichelli, Torino, 2017. Di recente, e per quanto in questa sede rileva, si veda P. Zuddas, Intelligenza artificiale e discriminazioni, in Consulta online, 16 marzo 2020, consultabile online

[18] Sul punto, vedi S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, n. 4/2019, consultabile online. Si veda, inoltre, l’interessante analisi effettuata da F. Basile, Diritto penale e intelligenza artificiale, in Giurisprudenza italiana – supplemento 2019, pp. 67-74, specie p. 71, in cui l’A. indaga sul fenomeno della “deresponsabilizzazione dell’uomo e della responsabilizzazione della macchina”, traslando il brocardo latino “societas delinquere non potest” in campo tecnologico. L’A., infatti, si interroga su se machina delinquere poteste su quale sia il confine tra machina e persona. Inoltre, e questo risulta essere lo spunto molto rilevante, ci si chiede se il sistema di IA possa essere considerato uno strumento di commissione del reato, quale autore del reato e, addirittura, quale vittima del reato stesso. Ancora, C. Parodi, V. Sellaroli, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, in Diritto penale contemporaneo, n. 6/2019, consultabile online.

[19] Vedi, da ultimo, il Comunicato del Consiglio d’Europa (Ref. DC 059(2020) dell’8 aprile 2020 ai 47 Stati membri. In una Raccomandazione sugli impatti dei sistemi algoritmici sui diritti umani, il Comitato dei Ministri del Consiglio d’Europa ha formulato una serie di linee guida che invitano i governi a garantire la non violazione dei diritti umani attraverso l’utilizzo, lo sviluppo o l’acquisizione di sistemi algoritmici. Inoltre, in quanto legislatori, devono stabilire quadri legislativi, regolamentari e di supervisione efficaci e prevedibili, in grado di prevenire, individuare e proibire le violazioni dei diritti umani e di porvi rimedio, siano esse imputabili ad attori pubblici o privati. La raccomandazione riconosce il grande potenziale dei processi algoritmici nel promuovere l’innovazione e lo sviluppo economico in numerosi ambiti, tra cui la comunicazione, i trasporti, la governancee i sistemi sanitari. Nell’attuale pandemia da COVID-19, i sistemi algoritmici vengono utilizzati per la previsione, la diagnostica e la ricerca di vaccini e cure. Un numero crescente di Stati membri sta prendendo in esame dispositivi di monitoraggio digitale avanzati, basati anche questi su algoritmi e automazione. Allo stesso tempo, la raccomandazione mette in guardia rispetto alle importanti sfide per i diritti umani associate all’utilizzo di sistemi algoritmici, soprattutto per quanto riguarda il diritto a un equo processo; il diritto al rispetto della privacy e alla protezione dei dati; il diritto alla libertà di pensiero, di coscienza e di religione; il diritto alla libertà di espressione e di assemblea; il diritto alla parità di trattamento; e i diritti economici e sociali. 

[20] L’art. 3 della Costituzione italiana recita: “Tutti i cittadini hanno pari dignità sociale e sono eguali davanti alla legge, senza distinzione di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali (c.d. “uguaglianza formale”). È compito della Repubblica rimuovere gli ostacoli di ordine economico e sociale, che, limitando di fatto la libertà e l’eguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l’effettiva partecipazione di tutti i lavoratori all’organizzazione politica, economica e sociale del Paese” (c.d. “uguaglianza sostanziale”). Va detto, però, che da tale disposizione costituzionale, senz’altro precettiva, discende anche e soprattutto il principio di “ragionevolezza”, che ha come corollario proprio la “non discriminazione”. Vedi, di recente, M. Galdi, La Costituzione e le sfide del futuro, Areablu edizioni, Cava de’ Tirreni, 2019, specie pp. 13-15. 

[21] Si rinvia, sul punto, a P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 265 ss. 

[22] Rispetto alla Carta costituzionale italiana, la Carta dei diritti fondamentali dell’Unione europea, distingue i due principi, i quali si rinvengono rispettivamente agli artt. 20 (“Tutte le persone sono uguali davanti alla legge”) e 21 (“È vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza nazionale, il patrimonio, la nascita, gli handicap, l’età o le tendenze sessuali”; “Nell’ambito d’applicazione del trattato che istituisce la Comunità europea e del trattato sull’Unione europea è vietata qualsiasi discriminazione fondata sulla cittadinanza, fatte salve le disposizioni particolari contenute nei trattati stessi”). 

[23] La Convenzione EDU, invece, sembra inglobare “implicitamente” il principio di uguaglianza formale, statuendo, all’art. 14 che “Il godimento dei diritti e delle libertà riconosciuti nella presente Convenzione deve essere assicurato senza nessuna discriminazione, in particolare quelle fondate sul sesso, la razza, il colore, la lingua, la religione, le opinioni politiche o quelle di altro genere, l’origine nazionale o sociale, l’appartenenza a una minoranza nazionale, la ricchezza, la nascita od ogni altra condizione”.

[24] Per una più approfondita analisi, si rimanda a S. Aterno, Alexa testimone in tribunale: i vantaggi per gli investigatori e le garanzie per la difesa, in agendadigitale, 20 marzo 2020, consultabile online

[25] Molto interessante, a tal riguardo, è il contributo di L. Santa Maria, La verità, in Diritto penale contemporaneo, 2017, consultabile online; P. Borgna, Verità storica e verità processuale, in Questione giustizia, 9 ottobre 2019, consultabile online.

[26] Sembra affiorare la stessa tesi anche in D. Dalfino, Stupidità (non solo) artificiale, predittività e processo, in Questione giustizia, 3 luglio 2019, consultabile online, il quale ha sottolineato, in maniera assolutamente condivisibile, che “…Dietro gli algoritmi, tuttavia, agisce sempre l’uomo, che gli algoritmi elabora e riempie”.

[27] Vedi, fra tutti, M. Airoldi, D. Gambetta, Sul mito della neutralità degli algoritmi, in The Lab’s quarterly, XX, n. 4/2018, pp. 26-42. 

[28] La puntualizzazione è mia. In tema, si rimanda, per un approfondimento ampio, a J. Nieva-Fenoll, Intelligenza artificiale  e processo(traduzione a cura di Paolo Comoglio), Giappichelli, Torino, 2019; C. Castelli, D. Piana, Giusto processo e intelligenza artificiale, Legale civile, 2019. Di recente, si approfondisca il contributo di F. Donati,Intelligenza artificiale e giustizia, in Rivista AIC, n. 1/2020, pp. 415-436.

[29] Si faccia solo riferimento al contenuto imprescindibile degli artt. 2, 3, 101 della Costituzione. 

[30] Sul punto, vedi  la letteratura sul punto, che è vastissima. A. Valeriani,  Diritto e intelligenza artificiale dei robot: verso una rivoluzione giuridica?, in Ius in itinere, 13 settembre 2018, consultabile online; A. Alpini, Sull’approccio umano-centrico all’intelligenza artificiale. Riflessioni a margine del “Progetto europeo di orientamenti etici per una IA affidabile”, in Comparazione e diritto civile, consultabileonline. Vedi, inoltre, G. Limone, La macchina delle regole, la verità della vita. Appunti sul fondamentalismo macchinico nell’era contemporanea, in G. Limone (a cura di), La macchina delle regole, la verità della vita. L’era di Antigone. Quaderni del Dipartimento di Giurisprudenza della Seconda Università degli Studi di Napoli, n. 8/2015, pp. 9-61; E. Pellecchia, Profilazione e decisioni automatizzate al tempo della black box society: qualità dei dati e leggibilità dell’algoritmo nella cornice della responsible research and innovation, in Le Nuove leggi civili commentate, n. 5/2018, p. 1210 ss.; G. Taddei Elmi, I diritti dell’intelligenza artificiale tra soggettività e valore: fantadiritto o jus condendum, in L. Lombardi Vellauri (a cura di), Il meritevole di tutela, Milano, 1990, pp. 685-711; G. Taddei Elmi, Logos e intelligenza artificiale, in L. Lombardi Vallauri (a cura di), Logos dell’essere. Logos della norma, Bari, 1999, pp. 603-652; L. Lombardi Vallauri, Neuroni, mente, anima, algoritmo: quattro ontologie, in L. Lombardi Vallauri (a cura di), Logos dell’essere. Logos della norma, cit., pp. 571- 601. Sulla possibilità di creare un nuovo soggetto di diritto, titolare di situazioni giuridiche soggettive attive e passive, potrebbero richiamarsi le argomentazioni relative all’attribuzione della soggettività giuridica e della personalità giuridica agli enti collettivi. Vedi P. Perlingieri, La personalità umana nell’ordinamento giuridico, ESI, Napoli, 1972; F. Galgano, Le associazioni, le fondazioni, i comitati, Padova, 1987; P. Rescigno, Persone e gruppi sociali, Napoli, 2006; V. Scalisi, Categorie e istituti del diritto civile nella transizione al postmoderno, Milano, 2005.

[31] L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica del diritto, n. 4/2018, p. 722, in cui si mette in evidenza la problematica dell’imputazione della responsabilità tra discipline tradizionali e soluzioni nuove. Vedi, in tal senso, anche M. Bassini, L. Liguori, O. Pollicino, Sistemi di intelligenza artificiale, responsabilità e accountability. Verso un nuovo paradigma?, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, 334; A. Santuosso, C. Boscarato, F. Corleo, Robot e diritto: una prima ricognizione, in La Nuova giurisprudenza civile commentata, 2012, p. 494 ss.; F. Di Giovanni, Intelligenza artificiale e rapporti contrattuali, in U. Ruffolo (a cura di), Intelligenza artificiale e responsabilità, Milano, 2017, p. 127 ss.; C. Perlingieri, L’incidenza dell’utilizzazione della tecnologia robotica nei rapporti civilistici, in Rassegna di diritto civile, 2015, p. 1244 ss.; E. Palmerini, Robotica e diritto: suggestioni, intersezioni, sviluppi a margine di una ricerca europea, in Responsabilità civile e previdenza, n. 6/2016, p. 1826 ss.

[32] Intellettualmente stimolante la riflessione di P. Benanti, La dignità della persona nell’epoca della Machina sapiens, in Istituto Italiano di Tecnologia, 25 gennaio 2019, consultabile online

[33] Sul tema, anche in visione multidisciplinare, vedi Commissione degli Episcopati dell’Unione europea, La robotizzazione della vita, in Il Regno – Documenti, n. 21/2019, pp. 671-675, laddove ci si sofferma (specie p. 672) sul “primato della dignità della persona e sul suo riconoscimento”. In questo contributo vengono posti dei dubbi in merito alla sopraffazione della macchina sull’uomo. Un uomo che diventa, a tal uopo, sempre più limitato. Si tratterebbe di un grande “paradosso”. È questa la ragione per la quale chi scrive propende per la difesa del principio di “creaturalità”. In termini bioetici, vedi S. Cucchetti, Homo creativus. Nuove sfide per la bioetica, in Il Regno – Attualità, n. 16/2019, pp. 475-478, laddove l’A. si sofferma sulla definizione, con l’augurio di un suo studio approfondito, del c.d. “umanesimo scientifico”. Si veda, ancora, United Nations, Educational, Scientific and cultural organization, World Commission on the ethics of scientific knowledge and technology, Report of comest on robotics ethics, 14 settembre 2017, pp. 1-64;  European Group on ethics in science and new technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, 2018, pp. 5-16; Comitato Nazionale per la bioetica, Comitato Nazionale per la biosicurezza, le biotecnologie e le scienze per la vita, Developments in robotics and roboethics, 17 luglio 2017, pp. 4-34. Per una completa ed esauriente prospettazione del limite “etico” nell’intrinseco e nell’estrinseco dell’intelligenza artificiale, vedi D. Andresciani, R. Cingolani, Robots and intelligent/autonomous systems: technology, social impact and open issues;H. Ishiguro, Studies on Interactive Robots; A. Bilard, Robots – ready to work with and for humans?; E. Agius,New Challenges and Opportunities for Catholic Theological Reflection; P. J. Opio, Robotics and the tansformation of economic dymanics; M. Carballo, Robotics and socio-political issues; K. Kiyimba,The Human Underbelly of the Robotics Industry; C. Gastmans, The ethics of care robots in aged care: An overview of ethical argumentations and concepts; B. Bass, Computational surgery: new perspectives and implications; K. Honda, Use of Robots in Healthcare: the Japanese Experience and the Relevance of Culture. Tali relazioni sono state profuse nel corso dell’Assemblea Generale 2019 della Pontificia Accademia per la vita e i riferimenti possono essere rinvenuti al link http://www.academyforlife.va/content/pav/it/events/assemblea-generale-2019.html. Ancora, si consenta rinviare a L. Floridi,Artificial Intelligence as a Divorce between Agency and Intelligence and its Ethical Consequences; P. Benanti, Questioni Teologiche e Antropologiche dell’Intelligenza Artificiale;A. Filipovic, Ethical and Social Consequences of Artificial Intelligence Insights from Christian Social Ethics; R. R. Wang, Flowing of Life and Static of Machine: A Daoist Perspective on AI; S. K. Alexander, Educatio Vitae: Person-centered ethics education in the age of AI; W. Ricciardi, AI and Healthcare;A. G. Floares, Artificial Intelligence in Oncology; F. H. Rigoli, The “Good” Algorithm? Artificial Intelligence, Ethics, Law, Health. AI and Human Health; S. Yamanaka,AI in Medicine. Recent Progress in iPS Cell Research and Application; F. Profumo,A new RenAIssance for the future of Education. Queste ultime relazioni sono state profuse all’atto della Rome Call for AI Ethics dal titolo “The “good” algorithm? Artificial Intelligence, Ethics, Law, Health”, tenutasi presso la Pontificia Accademia per la vita il 27 febbraio 2020 e i cui materiali sono disponibili al link http://www.academyforlife.va/content/pav/it/events/workshop-intelligenza-artificiale.html. Si veda, in ultima analisi, Papa Francesco, Discorso del Santo Padre ai partecipanti alla Plenaria della Pontificia Accademia per la Vita letto da S.E. Mons. Vincenzo Paglia, in Bollettino della Sala Stampa della Santa Sede n. 0134 del 28 febbraio 2020, laddove il Pontefice sottolinea come l’ “algor-etica” potrà essere un ponte per far sì che i principi si inscrivano concretamente nelle tecnologie digitali, attraverso un effettivo dialogo transdisciplinare. Inoltre, nell’incontro tra diverse visioni del mondo, i diritti umani costituiscono un importante punto di convergenza per la ricerca di un terreno comune. Nel momento presente, peraltro, sembra necessaria una riflessione aggiornata sui diritti e i doveri in questo ambito. Infatti, la profondità e l’accelerazione delle trasformazioni dell’era digitale sollevano inattese problematiche, che impongono nuove condizioni all’ethos individuale e collettivo. È interessante, specie in riferimento alle riflessioni “corali” sul tema, il nuovo volume di C. Barone(a cura di), L’algoritmo pensante. Dalla libertà dell’uomo all’autonomia delle Intelligenze Artificiali, Il Pozzo di Giacobbe, 2020, ove si pone l’accento sulle “intelligenze artificiali”, le quali costituiscono già una realtà di fatto in cui ci scopriamo immersi nel nostro quotidiano. In un prossimo futuro, esse promettono di divenire un “orizzonte pratico” in cui ci muoveremo con sempre maggiore familiarità. Non rappresentano soltanto un mero progresso scientifico, né tantomeno una tecnologia tra le altre. Esse contengono una visione, una filosofia, una narrazione sull’uomo e sul mondo che oscilla tra la promessa di un compimento e l’inquietante scenario di “un’egemonia programmata”. Nell’imitare l’intelligenza dell’uomo, le macchine sapienti ne sfidano le competenze, ne superano le prestazioni, ne occupano il posto nei più disparati ambiti della vita sociale, mettendo in discussione i presupposti su cui si fonda la nostra idea di individuo: libertà, autonomia, responsabilità. I vari AA. del volume, dunque, si interrogano sul “se” la digitalizzazione in atto sia un processo meramente collaborativo tra uomo e macchine oppure si pone come uno sviluppo trasfigurativo. E, ancora, che ne potrà essere dell’uomo nella misura in cui le Intelligenze artificiali saranno in grado di auto-programmarsi, di affrancarsi dalla sua tutela, guadagnandosi uno spazio di autonomia propria.

[34] Vedi M. Sabatino, Consiglio di Stato: l’algoritmo è un atto amministrativo informatico, su La Pagina Giuridica, 7 agosto 2019, consultabile online; Aa. Vv., Atti e procedimenti amministrativi informatici: promossa la P.A. Robot, se l’algoritmo è conoscibile, in Giurdanella.it (Rivista di diritto amministrativo), 29 aprile 2019; consultabile online; C. Morelli, Consiglio di Stato apre alla PA robot, in altalex.it, 20 gennaio 2010, consultabile online; M. De Angelis, Algoritmi nei concorsi pubblici: il caso dei docenti che fa “scuola”, in Ius in itinere, 5 ottobre 2019, consultabile online. Si veda, inoltre, G. Pesce, Il giudice amministrativo e la decisione robotizzata. Quando l’algoritmo è opaco, in Judicium, 15 giugno 2020, consultabile online, per il quale, se da un lato il Consiglio di Stato ribadisce la natura servente dell’algoritmo per la p.a. (secondo il canone “la macchina per l’uomo, non viceversa”), dall’altro lato, pone le premesse per un esplicito superamento anche dei limiti di utilizzo dell’algoritmo e della stessa Intelligenza Artificiale nei diversi ambiti dell’attività amministrativa. Si veda, inoltre, F. Calisai, Dati, informazioni e conoscenze: inquadramento giuridico e regolazione. Appunti su un potenziale paradigma appropriativo, in Tecnologie e Diritto, n. 1/2020, pp. 13-45; A. Di Martino, Intelligenza artificiale e decisione amministrativa automatizzata, in Tecnologie e Diritto, n. 1/2020, pp. 83-112; V. Conte, Decisioni pubbliche algoritmiche e garanzie costituzionali nella giurisprudenza del Conseil constitutionnel francese, in Tecnologie e Diritto, n. 1/2020, pp. 347-362. Vedi, ancora, M. Di Nicolò, Algoritmi e procedimento decisionale: alcuni recenti arresti della giustizia amministrativa, in Federalismi, n. 10/2020, pp. 344-368, consultabile online.

[35] Vedi note 12 e 27. Si veda, per un maggiore approfondimento, D. Dalfino,Decisione amministrativa robotica  ed effetto performativo. Un beffardo algoritmo per una “buona scuola”, in Questione giustizia, 13 gennaio 2020, consultabile online

[36] Tale è il motivo per cui la responsabilità finale sarebbe dell’introduttore (uomo) e non della macchina, salvo i biasin essa contenuti di cui è strutturalmente (nella sua, ossimoricamente, “natura artificiosa”) costituita.  

[37] Si veda D. Giribaldi, Intelligenza artificiale, tutti i pregiudizi (bias) che la rendono pericolosa, in agendadigitale, 26 febbraio 2019, consultabileonline, in cui l’A. si esprime in questi termini: “Il futuro dell’intelligenza artificiale dipenderà dalla capacità di risolvere la questione dei bias. Pregiudizi algoritmici che causano discriminazioni sociali. L’aumento dei dati a disposizione e delle capacità di calcolo rischiano di renderlo un problema fondamentale per il futuro”. S. Cosimi,Algoritmi e pregiudizi, uno strumento di Ibm per correggere l’AI, in wired.it., 9 ottobre 2018, consultabile online, in cui l’A., in maniera molto interessante, afferma che il colosso informatico ha lanciato una piattaforma in grado di analizzare le storture acquisite dai sistemi di intelligenza artificiale dai dati o dalla programmazione, fornire una valutazione e suggerire gli “ingredienti” per correggerli.

[38] Tra i diversi contributi, si veda C. Castronovo, Problema e sistema del danno da prodotti, Milano 1979; R. Pardolesi, La responsabilità per danno da prodotti difettosi, in Le Nuove leggi civili commentate, 1989, 487 ss.; A. Gorassini,Contributo per un sistema della responsabilità del produttore, Milano, 1990; G. Alpa, Responsabilità civile e danno, Bologna, 1991; G. Ponzanelli, Responsabilità del produttore, in Rivista di diritto civile, 1995, II, p. 215; G. Alpa, Il diritto dei consumatori, Roma-Bari, 1995; F. Cafaggi, La nozione di difetto ed il ruolo dell’informazione. Per l’adozione di un modello dinamico-relazionale di difetto in una prospettiva di riforma, in Rivista critica di diritto privato, 1995, II, p. 447; U. Carnevali, La responsabilità del produttore, Milano, 1974; C. Castronovo, La nuova responsabilità civile, Milano, 1997; A. Stoppa, Responsabilità del produttore, voce del Digesto discipline privatistiche (sez. civ.), XVII, Torino, 1998, 119 ss.; P. G. Monateri,La responsabilità civile, in Trattato di diritto civile diretto da R. Sacco, Torino 1998; U. Carnevali, Responsabilità del produttore, voce dell’Enciclopedia del diritto, Agg., II, Milano, 1998, p. 936 ss.; G. Alpa-M. Bessone, La responsabilità del produttore, Milano, 1999; A. De Berardinis, La responsabilità del produttore, in G. Alpa (a cura di), I precedenti. La formazione giurisprudenziale del diritto civile, II, Torino 2000, p. 1193 ss.; L. Mezzasoma, L’importatore all’interno della C.E. di prodotti difettosi fabbricati in altro Stato comunitario, in Rassegna giurisprudenza umbra, 2001, I, p. 207; G. Ponzanelli, Responsabilità del produttore, in Rivista di diritto civile, 2000, II, p. 913; S. Della Bella, Cedimento di scala estensibile e responsabilità del produttore-progettista: la nozione di danneggiato nella disciplina sulla responsabilità del produttore, in Responsabilità civile e previdenza, 2003, I, p. 1153; G. Ponzanelli, Responsabilità oggettiva del produttore e difetto di informazione, in Danno e responsabilità, 2003, I, p. 1005; G. Nicolini, Danni da prodotti agroalimentari difettosi: responsabilità del produttore, Giuffrè, 2006; P. Mariotti, Prodotti difettosi e obsolescenza programmata, Maggioli, 2013; E. Graziuso, La responsabilità per danno da prodotto difettoso, Giuffrè, 2015. Vedi, già risalente nel tempo, A. Cappelli, E. Giovannetti, L’interazione Uomo-Robot, consultabile online.

[39] Per un quadro di insieme sulle blockchaine sui c.d. “smart contracts”, si veda, senza pretesa di esaustività, G. Chiap, J. Ranalli, R. Bianchi, Blockchain. Tecnologia e applicazioni per il business, Hoepli, in Business & technology, 2019; R. Battaglini, M. Giordano, Blockchain e smart contract. Funzionamento, profili giuridici e internazionali, applicazioni pratiche, Giuffrè, 2019; S. Comellini, M. Vasapollo, Blockchain, criptovalute, I.C.O., smart contracts, Maggioli, in Collana Legale, 2019; F. Sarzana, S. Ippolito, M. Nicotra, Diritto della Blockchain, Intelligenza Artificiale e IoT, IPSOA, 2018. Un interessante contributo, in tema di autonomia contrattuale e intelligenza artificiale, applicato al requisito essenziale dell’oggetto, proviene da M. D’Ambrosio, Arbitraggio e determinazione algoritmica dell’oggetto, ESI, Napoli, 2020.

[40] In merito alle c.d. driverless car, vedi L. Burns, Autonomy: The Quest to Build the Driverless Car – And How It Will Reshape Our World, HarperCollins Publishers, 2019; A. Vedaschi, G. M. Noberasco, Gli auteveicoli a guida autonoma alla prova del  diritto, in Diritto pubblico comparato ed europeo, fasc. speciale, maggio 2019, pp. 769-797; S. Scagliarini, «Smart roads» e «driverless cars»: tra diritto, tecnologie, etica pubblica, Giappichelli, in Diritto e vulnerabilità. Studi e ricerche del CRID, 2019; M. Ferrazzano, Dai veicoli a guida umana alle autonomous car. Aspetti tecnici e giuridici, questioni etiche e prospettive per l’informatica forense, Giappichelli, in Informatica giuridica. Ricerca, 2019.

[41] C. Castelli, D. Piana, Giusto processo e intelligenza artificiale, cit.

[42] C. Castelli, D. Piana, Giusto processo e intelligenza artificiale, cit.

[43] L’espressione è mia, ma viene mutuata dall’opera di L. Ferrajoli,Diritto e ragione. Teoria del garantismo penale, Laterza, Bari, 2009, ove l’A. paragona la Carta costituzionale alla “tavola dei valori” e in cui impone il binomio “vigore-validità”, ponendo in capo agli operatori del diritto l’onere di individuare le aporie del sistema. 

[44] Queste norme rappresentano il baluardo in tema di “equo processo”. 

[45] Proprio pochi mesi fa, il Parlamento dell’Unione europea è intervenuto con una Risoluzione per chiedere maggiore imparzialità nell’utilizzo degli automi. Si veda, in tal senso, F. Me, Intelligenza artificiale, il Parlamento Ue: “Garantire imparzialità degli algoritmi”, in agendadigitale, 23 gennaio 2020, consultabile online, ove si afferma che “nell’interazione con le macchine l’uomo deve restare padrone”.

[46] Fra tutti, si veda M. Fabiani, Garanzia di terzietà e imparzialità del giudice ed efficienza del processo, in Judicium, consultabile online

[47] Si potrà, dunque, arrivare, nel nostro ordinamento, ad un principio di stare decisiselettronico o di pregiudizialità elettronica vincolante?

[48] Si consenta rinviare a R. Trezza, “Non di soli diritti vive il cittadino, ma di ogni dovere che la solidarietà costituzionale impone”: il bilanciamento dei diritti fondamentali ai tempi del Coronavirus, in Democrazia e Sicurezza, n. 1/2020, pp. 101-150. Si veda, inoltre, U. Allegretti, Il trattamento dell’epidemia di “coronavirus” come problema costituzionale e amministrativo, in Quaderni costituzionali, 25 marzo 2020, consultabile online; R. Balduzzi, Coronavirus. La solidarietà cardine costituzionale per l’emergenza, in Avvenire, 14 marzo 2020, consultabile online; L. Buscema, Emergenza sanitaria ed ordinamento democratico: questioni di metodo e di valore, in BioDiritto, n. 2/2020, pp. 1-10; B. Caravita, L’Italia ai tempi del coronavirus: rileggendo la Costituzione italiana, in Federalismi, 18 marzo 2020, consultabile online; A. D’Aloia, Costituzione ed emergenza. L’esperienza del Coronavirus, in BioDiritto, n. 2/2020, pp. 1-8; A. D’Aloia, L’emergenza e… i suoi ‘infortuni’, in Diritti fondamentali.it, 2020, consultabile online; S. Prisco, F. Abbondante, I diritti al tempo del coronavirus. Un dialogo, in Federalismi, 2020, pp. 1-20, consultabile online; R. Ravì Pinto, Brevi considerazioni su stato d’emergenza e stato costituzionale, in BioDiritto, n. 2/2020, pp. 1-8; A. Ruggeri, Il coronavirus contagia anche le categorie costituzionali e ne mette a dura prova la capacità di tenuta, in Diritto regionale, 21 marzo 2020, pp. 4 e 5; F. Torre, La Costituzione sotto stress ai tempi del Coronavirus, in BioDiritto, n. 2/2020, pp. 1-9; A. Venanzoni, L’innominabile attuale. L’emergenza Covid-19 tra diritti fondamentali e stato di eccezione, in Quaderni costituzionali, 26 marzo 2020, consultabile online

[49] Si vedano i profili giuridici, relativamente al diritto alla privacy, approfonditi in relazione alla app “IMMUNI” – ideata grazie a softwaresparticolari –, attraverso la quale si possono rintracciare coloro che sono positivi al coronavirus e quelli, invece, che rispetto ad essi siano immuni. A tal proposito, è bene chiarire che i dati relativi alla salute sono, come qualificati dalla normativa in tema di privacy, e da ultimo dal nuovo GDPR, dati sensibili. Dunque, può la tutela della salute pubblica prevalere sul diritto alla riservatezza dei dati sensibili? Vedi, ancora, A. Confalonieri, Come convivere con l’algoritmo ai tempi del Covid-19, in Key4biz, 11 aprile 2020, consultabile online. Inoltre, vedi Aa. Vv., Audit e accountability per prevenire i pregiudizi degli algoritmi, in privacyitalia.it., 3 dicembre 2018, consultabile online; P. Anastasio, Audit e accountability per eliminare i pregiudizi dagli algoritmi, in Key4biz, 30 novembre  2018, consultabile online

[50] Vedi M. D’Angelo, Coronavirus: cani robot e droni controllano il distanziamento sociale, in money.it, 9 maggio 2020, consultabile online, ove lo stesso A. afferma che si tratti di uno “scenario distopico”. 

[51] Vedi, sul punto, F. P. Ballirano, GDPR: Nuova privacy anche per i droni. Cosa fare per essere in regola, in DroneZine, La prima rivista italiana sui droni, 11 giugno 2018, consultabile online. Si veda, inoltre, R. Trezza, “Non di soli diritti vive il cittadino, ma di ogni dovere che la solidarietà costituzionale impone”, cit., specie pp. 136-141.

[52] D’accordo si trova F. Suman, L’etica delle macchine e la necessità del controllo umano, in Micromega, 10 aprile 2020, consultabile online

[53] Quis custodiet ipsos custodes? è una locuzione latina tratta dalla VI Satira di Giovenale, che letteralmente significa: «Chi sorveglierà i sorveglianti stessi?»

[54] Ci sono i presupposti per discorrere di una “responsabilità a catena”? 

[55] Su tale concetto, si consenta rinviare a R. Trezza, Fecondazione post mortem: sopravvivenza del consenso del coniuge espresso in vita, rettificazione dell’atto dello stato civile e attribuzione del cognome paterno(Cass. civ., sez. I, 15 maggio 2019, n. 13000), in Giustizia insieme, pp. 1-29; R. Trezza, Diritto all’anonimato e diritto a conoscere le proprie origini biologiche: un approccio “sbilanciatorio-avaloriale” o “bilanciatorio assiologico”?, in Giustizia insieme, pp. 1-25.

[56] Sul principio dell’autodeterminazione della persona umana, si consenta rinviare a R. Trezza, Responsabilità medica e autodeterminazione della persona. Gli orientamenti di legittimità dalla Legge Gelli-Bianco ad oggi, in Giustizia insieme, pp. 1-24; P. Cendon, Il prezzo della follia. Lesione della salute mentale e responsabilità civile(edizione italiana a cura di R. Trezza, C. A. Agurto Gonzales, S. L. Quequejana Mamani, B. Choque Cuenca), collana Biblioteca di diritto civile, Ediciones Olejnik, Argentina, 2020, pp. 17-198; R. Trezza, Atti di disposizione del proprio corpo e tutela della salute della “persona-atleta”: l’influenza delle nuove tecnologie e i nuovi modelli di responsabilità del medico sportivo, in Ius in itinere, n. 1/2020, pp. 3-32; R. Trezza, Diritto alla vita, diritto alla salute e responsabilità medica. Riflessioni prospettiche sull’autodeterminazione della persona umana, Brunolibri, Salerno, 2020, pp. 3-197; R. Trezza, Le declinazioni giurisprudenziali della responsabilità medica nel prisma dell’autodeterminazione della persona umana, in Diritto alla vita, diritto alla salute e responsabilità medica. Riflessioni prospettiche sull’autodeterminazione della persona umana(a cura di R. Trezza), Brunolibri, Salerno, 2020, pp. 165-192; R. Trezza, Maternità surrogata: ordine pubblico o best interest of the child?, in Federalismi, n. 22/2020, specie pp. 288, 290, 298. 

[57] Sul rapporto tra medicina e Intelligenza Artificiale, vedi E. Capoluongo, Intelligenza artificiale per la medicina di precisione: a che punto siamo, in agendadigitale, 12 novembre 2019, consultabile online; V. Savesky, Come l’intelligenza artificiale rivoluzionerà il sistema sanitario, in wired.it., 28 febbraio 2019, consultabile online; G. Pasqualin Traversa, L’intelligenza artificiale può rivoluzionare la medicina, ma solo se guidata da un’algor-etica, in SIR (Agenzia d’informazione), 11 dicembre 2019, consultabile online; Aa. Vv.,Intelligenza artificiale in medicina: limiti di big data e algoritmi, in quotidianosanità.it, 20 aprile 2019, consultabile online; Z. Obermeyer, E. J. Emanuel, Predicting the future – big data, machine learning, and clinical medicine, in New Engl J Med, 2016, pp. 1216-1219; R. Rasoini, Intelligenza artificiale in medicina: tra hype, incertezza e scatole nere, in Toscana Medica, 2017, pp. 18-20; Cabitza,Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina, in Recenti Prognosi Mediche, 2017, pp. 397-401; F. M. Battisti, M. Esposito,Medici e nuove tecnologie. La medicina generale di fronte al cambiamento tecnico e organizzativo della sanità, FrancoAngeli, 2006; F. Lega, Management della sanità. Comprendere e gestire le sfide del settore e delle aziende sanitarie, EGEA, 2016; G. Maglio, Robot in Sanità, quali norme per l’innovazione, in agendadigitale, 24 luglio 2017; R. Corcella, «Così le nuove tecnologie digitali ci danno una mano nella prevenzione», in Il Corriere della sera, 15 settembre 2019, consultabile online, secondo cui la salute per tutti viene messa in discussione da una crescita dei costi dei sistemi sanitari per cui le soluzioni innovative possono contribuire a superare gli ostacoli; E. Bellio, L. Buccoliero,Sanità, così la tecnologia mette il paziente al centro: cosa fare, in agendadigitale, 15 ottobre 2018, consultabile online;S. Ficocelli, Il futuro della salute è in mano alla tecnologia. Gli esperti: “Curarsi diventerà sempre più facile”, in La Repubblica, 12 marzo 2019, consultabile online. Vedi L. Di Sofia, Medicina e sanità: quale ruolo giocano oggi i robot collaborativi, in www.alumotion.it., 18 febbraio 2019, consultabile online;A. Beverina, Robotica nella sanità, il futuro è cominciato e l’Italia è in partita: ecco 4 storie, in www.economyup.it., 10 dicembre 2018, consultabile online.

[58] Vedi A. R. Cillis, Il robot entra in corsia e aiuta a fare la diagnosi, in La Repubblica, 23 gennaio 2019, consultabile online.

[59] Fra tutti, si consenta rinviare a G. Dalia, L’esperienza penale nella lotta alla corruzione: prevenzione, sanzionale penale, contrasto processuale e performance, in Iura and legal systems, VI, n. 4/2019, pp. 1-31. 

[60] Fra tutti, si legga G. P. della Mirandola, Oratio de hominis dignitate. Discorso sulla dignità dell’uomo, DigitalSoul. Si rinvia alla nota n. 33. 

[61] Si veda, in tal senso, R. Trezza, Recensione al volume “Decisione robotica” (a cura di A. Carleo), cit.