PROBLEMS THAT MATTER

Sulla strada del Convegno di Settembre – INTELLIGENZA ARTIFICIALE: per una governance umana. Prospettive educative e sociali (www.intelligenzartificiale.unisal.it) – siamo felici di annunciare la pubblicazione dell’Instant Book “Problems that matter”, a cura del Comitato organizzatore e con i contributi di molti dei Componenti i Gruppi di studio che fin dall’inizio hanno collaborato al progetto. Scaricabile in formato .pdf al link e in formato .epub scaricabile come .zip, propone diversificati, per l’eterogeneità degli Autori, spunti di riflessione sul tema chiaroscuro dell’IA.

pdf
EPUB

Si ringrazia:

  • ARIANO Chiara – Pontificia Università Lateranense
  • BLASI Simonetta – FERPI  / Università Pontificia Salesiana – Facoltà di Scienze della Comunicazione Sociale
  • CAPPELLA Antonio – Strategic Digital Communication
  • COVINO Mauro – Formez PA
  • CURRO’ Salvatore – Università Pontificia Salesiana – Facoltà di Teologia
  • DANELUZ Diana – FERPI
  • ELETTI Valerio  – Complexity Education Project (Università di Perugia)
  • FABBRETTI Anita – FERPI
  • FARINA Francesco – Centro studi intelligenza economica e security manager (Uniforma 2)
  • GRANELLI Andrea – Kanso
  • GRZADZIEL Dariusz – Università Pontificia Salesiana – Facoltà di Scienze dell’Educazione
  • LORIZIO Giuseppe – Pontificia Università Lateranense
  • LOVERGINE Saverio – INAPP / Università di Tor Vergata / Gruppo di lavoro ESCO in Commissione Europea
  • MATTEI Federico – IBM
  • MEZZA Michele – Federico II
  • NATALE Domenico – ISO/IEC JTC1 SC7/WG6 “Software Engineering” – Commissione UNI-UNINFO “IA”
  • OLIVA Stefano – Pontificio Ateneo S. Anselmo – Facoltà di Filosofia
  • PASQUALETTI Fabio – Università Pontificia Salesiana
  • RE Marco – Uniroma 2 Tor Vergata
  • STAFFOLANI Marco – Pontificia Università Lateranense
  • TAGLIAFERRI Michelangelo – Fondazione Accademia di Comunicazione 

Quale posizione in merito all’IA?

CAPPELLA Antonio – Strategic Digital Communication
Responsabile Gruppo di studio GOVERNANCE (e management)

L’uomo, prima di tutto. «Se il computer è figlio dell’uomo e l’uomo è figlio di Dio, allora il computer è il nipotino di Dio: guai a chi glielo tocca». Con questo celebre sillogismo, il gesuita Roberto Busa (1913-2011), padre dell’informatica umanistica, rispondeva sorridendo a chi lo interpellava sulla possibile espropriazione di facoltà dell’uomo da parte di macchine sempre più sofisticate e potenti. Un ottimismo che non è ingenuità, ma indica in una precisa genealogia il posto della stessa macchina nell’ordine della Creazione. L’esempio ci ricorda che i problemi iniziano quando è l’uomo a collocare le sue “creature” tecnologiche al di fuori di un legame che è di diretta dipendenza. La distorsione di questo rapporto si produce quando l’intelligenza artificiale, coltivata all’interno di sistemi informatici di crescente complessità e prestazioni, viene più o meno inconsapevolmente rivestita di un fascino miracolistico e di un potere taumaturgico; quando le vengono delegate troppe funzioni (non solo tecniche, ma emotive e persino esistenziali: si pensi agli assistenti vocali domestici) da farne non più l’erede docile del Creatore, ma una divinità dispotica che guida a piacimento la nostra vita. L’esempio del navigatore, che espropria il nostro senso dell’orientamento, ci avverte del pericolo che, se ci pensiamo meno umani, finiamo per crederci appendici goffe di sistemi di per sé quasi perfetti. Prigionieri di algoritmi che sembrano teleguidarci, possiamo finire per non vedere più il grande bene che ogni giorno dipende esclusivamente dalla nostra libera volontà. L’intelligenza artificiale, dunque, serve il bene dell’uomo fin quando non rinunciamo a essere ciò che Dio ci ha indicato imprimendo nella nostra natura l’immensa dignità di figli (Francesco Ogniben).

FABBRETTI Anita – FERPI 
Gruppo di studio GOVERNANCE (e management)

L’Intelligenza Artificiale è già attualmente, ma lo sarà ancora di più nel prossimo futuro, una delle tecnologie emergenti e pervasive che influenzerà e cambierà il nostro modo di vivere e di relazionarci. Nella nostra prospettiva i notevoli progressi nel machine learning, branca dell’Intelligenza Artificiale, accoppiati ad una disponibilità sempre più ampia di dati ottenuti anche in tempo reale, evidenziano la possibilità di realizzare sistemi software complessi e affidabili, in grado di apprendere dalle loro stesse esperienze e di intraprendere azioni tipiche delle capacità umane in particolari domini ad alta intensità informativa. Nel nostro contesto, che vede quale elemento centrale delle attività applicative la costruzione preliminare di una Infrastruttura Dati e Conoscenza (Knowledge Management System) sulla quale riversare tutte le informazioni provenienti dai domini di conoscenza oggetto di analisi, la capacità di individuare correlazioni ed eventuali situazioni anomale costituisce oggi una capacità di indispensabile ausilio alle persone preposte al monitoraggio, controllo e presidio di tali domini. Se delimitiamo la discussione sulle caratteristiche peculiari dell’Intelligenza Artificiale al nostro specifico approccio professionale, che riguarda l’analisi delle informazioni anche con un diretto ed immediato collegamento alla sicurezza, possiamo individuare gli aspetti più rilevanti della tematica e le relative criticità. Il tutto, come detto, considerando lo specifico contesto di competenza e quindi tralasciando le altre tematiche generali tipiche di un approccio alla realizzazione di sistemi informatici che siano in grado di elaborare “pensieri ed azioni indipendenti”.

GRANELLI Andrea – Kanso
Gruppo di studio GOVERNANCE (e management)

Si rimanda ad alcune riflessioni recenti su “IA e innovazione” … e dintorni:

– ”Anticipare i rischi”, commento a “Competere nell’Era dell’IA. Come le macchine intelligenti cambiano le regole del business” di Marco Lanisti e Karim R. Lakhani (Harvard Business Review Italia, gennaio/febbraio 2020)
– Progetto Macrotrends 2019-2020 “Out of Balance” – Verso l’ibridazione tra intelligenza umana e potenza algoritmica (Harvard Business Review Italia, novembre 2019)
– L’innovazione nasce dalla tradizione e dall’uomo – intervista di Andrea Monda (Osservatore Romano, 10-11 giugno 2019)
– Decidere nell’era dell’intelligenza Artificiale (Harvard Business Review Italia, aprile 2019)
– Incidenti di percorso (Formiche 132, gennaio 2018)
– Negazionismo digitale: come aggirare le barriere di chi teme l’innovazione (blog sul Sole24Ore, giugno 2019)

LOVERGINE Saverio – INAPP / Università di Tor Vergata / Gruppo di lavoro ESCO in Commissione Europea 
Gruppo di studio GOVERNANCE (e management)

Occupandomi nel mio lavoro anche dell’impatto di IA, robotica e nuove tecnologie digitali su società, politica, economia e cultura – in particolare su lavoro, lavori e competenze – e verificando quanto tali tecnologie siano pervasive nella vita quotidiana, non credo assolutamente in una prospettiva/deriva essenzialmente tecnologica – imperativo tecnologico – ma sono a favore di un atteggiamento anti-deterministico rispetto alle trasformazioni tecnologiche. Infatti, ci deve essere sempre un controllo umano (IA “antropocentrica”), in quanto l’obiettivo è migliorare l’agire umano e i suoi diritti per costruire un atteggiamento di fiducia nell’IA (IA “affidabile”). Inoltre, viste le trasformazioni in atto, è importante definire un nuovo modello di governance per governare l’IA, un quadro istituzionale e regolativo che ne prospetta e definisce gli usi legittimi, e nel quale si inquadrano l’agire umano e i diritti dei cittadini. Nello specifico condivido lo spirito e i contenuti dei sette principi fondamentali delle suddette linee guida UE: azione e sorveglianza umane, robustezza e sicurezza, riservatezza e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale, accountability.

NATALE Domenico – ISO/IEC JTC1 SC7/WG6 “Software Engineering” / Commissione UNI-UNINFO “Intelligenza Artificiale” 
Gruppo di studio GOVERNANCE (e management)

a. La posizione personale sull’IA riflette la partecipazione ad attività di studio internazionale nell’ambito del progetto ISO/IEC 25000 (SQuaRE – System and Software Quality Requirements and Evaluation) dedicata, tra l’altro, alla definizione di caratteristiche di qualità di Sistemi, Software, Dati, Servizi, Qualità in uso, alle quali un sistema di Intelligenza Artificiale dovrebbe conformarsi, come ad esempio:
I. avere la capacità di apprendere e imparare da dati di alta qualità e esperienze;
II. garantire le trasparenze degli algoritmi (perché l’algoritmo suggerisce qualcosa e sulla base di quali regole);
III. rispondere a valori etici definiti credibili e conformi a valori condivisi. 

In tale prospettiva si ritiene che molte delle considerazioni ritenute valide nel campo della ricerca dovrebbero convergere in un modello di qualità internazionalmente riconosciuto, per evitare la dispersione di risorse e la continua tendenza di “reinventare la ruota”. 

Essendo l’IA un sistema software, e non solo, in ambito ISO si propone di partire dal modello di qualità del software (ISO/IEC 25010) e dei dati (ISO/IEC 25012) riconoscendo la necessità di incrementare ulteriori caratteristiche e sotto-caratteristiche di qualità, utili agli scopi di specifici contesti d’uso.

Particolare importanza assumeranno anche i sistemi di IoT (Internet of Things) quali sensori di alimentazione di dati per gli algoritmi. Probabilmente IA/IoT da soli, senza interventi umani, non sono sufficienti per il raggiungimento degli obiettivi proposti, così come il governo umano, da solo senza ulteriori supporti automatici integrati (sensori) di feedback, riuscirebbe a gestire casi distribuiti su territori immensi con migliaia di sensori (ad esempio senza avere la sicurezza che tutti i sensori ritenuti vitali siano funzionanti al 100% contemporaneamente). L’orientamento futuro potrebbe essere quello di definire e diffondere regole di etica condivise con il giusto equilibrio di componenti tecnologiche ed umane.

b. La posizione legata alla partecipazione ad attività di studio nell’ambito della Commissione ISO/UNI/UNINFO di Intelligenza Artificiale, coordinata dall’Università del Sannio, è orientata al contributo ai modelli di qualità suddetti, rimarcando la necessità di utilizzare dati localizzati in Italia come alimentatori di fenomeni nazionali. Algoritmi e dati devono riflettere fenomeni geo-localizzati e non semplicemente importati dall’estero. Sono in raccolta panoramiche di casistiche reali attive anche al fine di favorire il coordinamento di osservatori nazionali che potranno aiutare nello sviluppo di sistemi di IA efficaci ed efficienti, tendenti alla mitigazione dei rischi economici, della salute (della vita) e dell’ambiente.

c. Si considera l’importanza della qualità dei dati alla base della riuscita di sviluppo degli algoritmi di IA. La qualità dei dati, definita dall’ISO/IEC 25012, riflette anche alcuni meccanismi della conoscenza umana e quindi particolarmente utili anche per la “conoscenza digitale”, ritenendo l’IA una emulazione di essa e quindi tecnicamente una “intelligenza digitale” derivante dall’introduzione di informazioni e dati negli algoritmi software in grado di modificarsi, modellarsi, correggersi, apprendere sulla base di introiezioni simili all’esperienza e alla memoria umana. L’introiezione dei dati e informazioni può essere soggettiva ed errata, a maggior ragione se i dati non garantiscono una accuratezza semantica condivisa. Il dato secondo la definizione dello standard è una rappresentazione re-interpretabile della realtà, interpretazione ancora più soggettiva se non soddisfa caratteristiche condivise di qualità sia da parte delle persone che da parte degli algoritmi e delle macchine. Lo studio della qualità dei dati è ancora aperto ed anche in questo caso la comunità dei ricercatori ISO suggerisce di partire dalle 15 caratteristiche dei dati già condivise internazionalmente: accuratezza (sintattica e semantica), completezza, coerenza, attualità (tempestività), credibilità (fonti ufficiali), accessibilità (anche a persone con disabilità), comprensibilità, efficienza, conformità a regole/leggi locali, precisione di dettaglio, tracciabilità, riservatezza, disponibilità, portabilità, ricoverabilità (salvataggio di dati su supporti di memoria esterna per la conservazione permanente di informazioni e possibilità di recupero in caso di necessità).

RE Marco – Uniroma 2 Tor Vergata 
Gruppo di studio GOVERNANCE (e management)

La mia posizione e quella di un ricercatore di elettronica che implementa sistemi per la intelligenza artificiale.

La prospettiva che sto studiando in questo periodo al di là del lato filosofico e tecnologico è quella delle prospettive reali della crescita di queste tecnologie che dovranno essere gestite.

Tale settore è in realtà piuttosto maturo in termini scientifici. Esso si è attivato negli ultimi anni arrivando alle applicazioni di massa in virtù degli ultimi avanzamenti delle tecnologie dei semiconduttori. Fondamentale, per poter valutare in prospettiva la evoluzione della IA e quindi poterla gestire, conoscere il trend futuro delle tecnologie dei semiconduttori in una prospettiva globale. La velocità dello sviluppo della IA è intimamente legata allo sviluppo di tale industria che a sua volta dipende da questioni tecnologiche, ma anche da questioni di geopolitica internazionale legate a forti tendenze al sovranismo tecnologico delle più importanti nazioni.

Il mio contributo potrebbe essere in questa direzione, ad esempio: prospettive della IA in relazione alla crescita ed allo sviluppo del mercato dei semiconduttori su scala globale

BLASI Simonetta – FERPI / Università Pontificia Salesiana – Facoltà di Scienze della Comunicazione Sociale
Responsabile Gruppo di studio EDUCAZIONE (nella sua ampia accezione)

Le tecnologie di ‘fuori’ ci modificano ‘dentro’, cambiano la nostra percezione dello spazio e del tempo e ci restituiscono una sorta di assolutizzazione dell’immediato (per di più globale). Il depotenziamento di queste categorie naturalmente ha un impatto pesante sulle nostre vite, soprattutto per i giovani che sono in via di formazione e stanno crescendo facendo i conti con queste continue sollecitazioni della così detta infosfera.

Viviamo una metamorfosi talvolta impercettibile che ci sta portando a grandi passi nei regni dell’ubiquitos dove peraltro enormi quantità di informazioni (e stimoli) vengono profferte (spesso ancora in modo poco consapevole) e processate/profilate in tempo reale, togliendo, appunto, lo spazio e il tempo per la riflessione/elaborazione che dovrebbe poi essere l’attività intellettuale in grado di fornire scelte ponderate e utili allo sviluppo armonioso dell’essere umano.

L’ubiquitos peraltro porta con se’ grandi confort così come una grande pressione di contenuti (comunicativi) ad alto tasso emotivo, tanto da indurci a un sempre più veloce assorbimento che si traduce poi in risposte immediate dettate dalle emozioni, oppure in un torpore di solipsistica assuefazione.

Torna l’annoso tema dell’educazione alle emozioni, sin dalla tenera infanzia.

Citando gli studi sulla Media Education, bisognerà adoperarsi per un approccio articolato che comprenda una conoscenza dello scenario di IA e dei diversi sistemi e tecnologie, una capacità di uso/impiego di questi sistemi, oltre che una capacità di creazione (programmazione?) di questi sistemi, oltre che un costante approccio critico.

ELETTI Valerio – Complexity Education Project (Università di Perugia)
Gruppo di studio EDUCAZIONE (nella sua ampia accezione)

Scenario: siamo in una fase di transizione epocale che sta portando l’intelligenza artificiale a interagire dovunque e definitivamente con la vita individuale e sociale; tanto da affermare che in effetti ha senso parlare di singolarità, a breve e medio termine, nel percorso evolutivo dell’intera umanità.

Azioni: è essenziale capire (e condividere), già in questa primissima, turbolenta e incerta, fase di transizione, il cambiamento indotto dalle varie forme di IA sia a livello individuale (cognitivo, relazionale, sanitario…) sia a livello sociale (affermazione di nuove forme di organizzazione e di controllo, nel bene e nel male).

LORIZIO Giuseppe – Pontificia Università Lateranense 
Gruppo di studio EDUCAZIONE (nella sua ampia accezione)

La cosiddetta “intelligenza artificiale” è un mito del nostro tempo “neo-moderno” (secondo la felice denominazione di Roberto Mordacci). E qui al mito non intendiamo dare un’accezione negativa, né dimenticare la sua valenza veritativa e, si pensi a miti classici e religiosi, educativa. Al momento piuttosto che parlare di intelligenza artificiale bisogna far ricorso alla memoria e alla ragione, in quanto i dispositivi finora prodotti sono potenti mezzi dotati di immense potenzialità di raccolta dati (memoria) e grande velocità di calcolo computazionale (da cui il loro nome). Mentre riflettiamo su questo argomento, l’intelligenza (intelletto vs ragione) e il pensiero, come le emozioni, non sembrano appartenere alla civiltà delle macchine. E la risposta di Turing alla domanda se le macchine pensano, lui dice di sì, ma a modo loro, va declinata nel senso che ricordano e ragionano. E, sempre nel nostro oggi, sembra che le macchine pensino secondo la logica binaria, a meno che i computer quantistici non ci riservino sorprese, sembrerebbero estranee a quella logica del paradosso che caratterizza l’esistenza umana, con la compresenza di luci e tenebre, bianco e nero, vero e falso, bene e male. Ecco il motivo per cui gli Adam e le Eve del romanzo di Ian McEvan si suicidano: non sopportano le zone grigie dell’umano.

L’aspetto che mi sembra da porre in rilievo, riflettendo sull’educazione al tempo dell’IA, è la frattura che si genera nel mondo delle macchine e di quel nuovo Leviatano, che sarebbe Internet, fra lo spazio e il tempo. L’attuale contesto socioculturale e mediatico ci consegna un’immagine/idea del tempo, che, mentre sembra confliggere radicalmente con la visione proposta dalla teologia cristiana, al tempo stesso la interpella e la sfida. Si tratta di un cambio di paradigma “filosofico”, la cui parabola ci mostra come dall’enfasi sulla storicità (e di conseguenza la temporalità e la diacronia), si sia approdati all’assolutizzazione della sincronia. Sembrano pertanto alquanto se non fin troppo lontani i tempi in cui il filosofo poteva esclamare, “Es gibt Sein, Es gibt Zeit” (Heidegger, 108). Infatti “Internet sembra offrire una connettività globale senza tempo: la home page (idealmente con una connessione di ventiquattr’ore al giorno) è sempre accesa, anche quando il suo proprietario dorme”. 

Il concetto e diremmo il termine stesso di globalizzazione confermano la tesi interpretativa piuttosto diffusa, secondo cui il processo (o l’insieme dei processi) che così denominiamo producono una sorta di “esautorazione del tempo” a favore dello spazio, all’interno di quella dislocazione, di cui parla Anthony Giddens, come prima fonte di dinamismo della modernità. A parte le critiche rivolte alla sociologia di questo autore sia da Margaret S. Archer che da Niklas Luhman, questa teoria, esplicitata ulteriormente da Manuel Castells, interpreta il reticolato planetario adottando esclusivamente categorie spaziali: parla così di “realtà topologica”, “campo reticolare”, in cui si posizionano gli “spazi di flusso”, che costituiscono la struttura della rete. La network society, secondo questo autore, risulta caratterizzata da “una temporalità circolare di flussi interattivi in una realtà di natura spaziale”, che “dissolve la linearità ed irreversibilità del tempo in un timeless time [= tempo eterno] neutro, amorfo, senza storicità, e pertanto svaluta il tempo soggettivo”. Un affondo filosofico, a partire da queste considerazioni socioculturali, mette in campo la categoria di “presente assoluto”, secondo le interessanti intuizioni di Agnes Heller, con la metafora dell’“abitare il tempo” (Heller, 25), fenomenologicamente descritto a partire dalle esperienze di accelerazione e di simultaneità, in quella artificiale “formattazione del tempo”, che percepiamo come naturale nel momento in cui abitiamo la rete informatica o le reti televisive. E tale oblio del tempo finisce col riguardare sia il passato, sia il futuro. La frammentazione e la formattazione del tempo producono la percezione dell’equivalenza dei momenti che compongono il flusso temporale. In questa direzione C. Geertz ha elaborato la categoria di “tempo tassonomico”, a palinsesto, in cui anziché susseguirsi giorni vuoti e giorni pieni (dove la pienezza è data dal loro significato per il singolo e la comunità), registriamo soltanto la catena dei giorni vuoti, riempiti da ciò che immediatamente urge la coscienza degli individui (privatizzazione del tempo). La letteratura sull’argomento parla a questo proposito di “società de-tradizionalizzata”, di “de-tradizionalizzare la tradizione” e di “tradizione assediata”.

Tutto questo incide sui processi educativi, per cui bisognerà interrogarsi non tanto sull’apprendimento delle macchine quanto sull’apprendimento dalle macchine. Esse – come abbiamo avuto modo di riflettere in un importante convegno SEFIR – “parlano di noi” e in un certo senso ci fanno da specchio e ci pongono di fronte ai nostri limiti mnemonici e razionali, ma anche alle nostre potenzialità di pensiero e di intelligenza. Istruttiva risulterà la lezione golemica del noto romanzo fantascientifico di S. Lem, Golem XIV. In questo senso le macchine educano, nel senso che tirano fuori ciò che siamo. L’approccio educativo, se vuol andare oltre l’assemblaggio delle informazioni e interpellare la persona mostrerà come la fondamentale caratteristica dell’umano rispetto al mondo della tecnica è l’unicità. La macchina è replicabile, perché si costruisce, la persona è unica perché si genera. Ulteriori riflessioni potranno riguardare la trasmissione (educazione) della fede nel mondo dell’IA, mostrando, come abbiamo avuto modo di vedere altrove, che in fondo la religione è l’artificio della fede, la sua memoria e la sua ragione.

GRZADZIEL Dariusz – Università Pontificia Salesiana – Facoltà di Scienze dell’Educazione 
Gruppo di studio EDUCAZIONE (nella sua ampia accezione)

Senza voler entrare nelle questioni riguardanti la concettualizzazione dell’Intelligenza Artificiale (IA), presentate già in altri posti, e soprattutto per sollecitare una riflessione pedagogica al riguardo, cercherò di proporre alcune affermazioni che partono dalla domanda formulata più frequentemente: in quali ambiti dell’educazione (in senso largo), l’IA può offrire reali opportunità, e, in quali ambiti, con grande probabilità, queste opportunità potranno essere limitate?

Inizio con la premessa che, come i calcolatori non hanno sostituito i matematici, ma indubbiamente hanno aumentato o esteso le loro capacità, così neanche l’IA sostituirà gli educatori, ma in qualche modo potrà sostenere il loro lavoro. Alcuni esempi al riguardo lo possono confermare; essi si collocano in due prospettive più generali: la prima vede l’IA in funzione di comprendere i processi educativi e, la seconda, vede l’IA in funzione di sostenere i medesimi.

Relativamente alla prima prospettiva, si può pensare a tutto ciò che significa diagnosticare nell’ambito educativo. L’IA sicuramente potrà sostenere le elaborazioni dei dati in vista di individuare delle regolarità o dei modelli impliciti, oppure potrà aiutare a classificare processi complessi basati su una moltitudine di elementi presi in considerazione. Nell’ambito della scuola, si può pensare, ad es. ai disturbi o agli stili di apprendimento, o anche alle potenzialità e alle preferenze degli studenti. In modo simile l’IA potrà essere valorizzata nei processi di valutazione, nei quali deve confrontare una moltitudine di indicatori con dei criteri complessi e numerosi al fine di elaborare risultati secondo varie differenziazioni di valore.

Bisogna dire comunque che, sia nel primo come nel secondo caso, le decisioni circa l’intervento educativo di questo o di altro tipo dovrà scegliere sempre l’uomo – ad es. un educatore, l’insegnante o il genitore. Le macchine potranno elaborare più velocemente una moltitudine di dati, ma probabilmente non potranno mai prendere in considerazione i fattori nel contesto attuale in cui si trova la persona, i motivi che la guidano attualmente, oppure i sentimenti suscitati improvvisamente.

Riguardo alla seconda prospettiva, la considerazione può essere rivolta ai sistemi di tutoraggio e di adattamento dei processi. In riferimento alla scuola, essi permettono, ad. es., di progettare e realizzare condizioni e forme di apprendimento molto personalizzate e individualizzate, che si basano, ad es., sulla possibilità di dare un feedback immediato, oppure sulle possibilità di suggerire i percorsi più adeguati in base ai risultati e ai passi realizzati precedentemente. Le prime prove di implementazione dei sistemi informatici di questo tipo sono state realizzate già negli anni ’60 e ’70 del secolo scorso.1 Gli anni successivi hanno constatato uno sviluppo molto consistente al riguardo. Tutto questo ha portato all’invenzione dei sistemi intelligenti di tutoraggio basati non solo sulle caratteristiche individuali deli studenti, ma anche sui modelli teorici di apprendimento, e, negli ultimi anni, anche sull’integrazione delle realtà aumentate.

Oltre a quanto disegnato sopra, però, si presenteranno sempre realtà, situazioni e momenti, nei quali le possibilità di interagire con le IA saranno limitate. A questi appartengono sicuramente tutti i processi educativi volti ad affermare l’uomo in quanto tale: saranno interventi volti a sostenere lo sviluppo dell’individualità della persona, ad accentuare caratteristiche proprie ed irrepetibili, quelle cioè che difficilmente si lasciano incapsulare nei processi algoritmici. Ne indichiamo alcuni.

La prima e fondamentale realtà, nella quale la presenza reale e fisica dell’uomo è insostituibile, è proprio l’educazione considerata nella sua essenza. Essa è volta alla maturazione umana e personale di ogni individuo sin dalla sua nascita. Nella sua dimensione fondamentale è intesa come spazio relazionale, sociale e culturale nel quale l’uomo scopre sé stesso, è sostenuto nei processi della crescita fino a diventare autonomo e responsabile all’interno del gruppo di appartenenza. In questo spazio, ricco di relazioni con altre persone (nella famiglia, nella comunità, nella società), avvengono profondi processi di amore, del prendersi cura, di cittadinanza. É chiaro, quindi, che per essere educato in questo senso, l’uomo necessariamente ha bisogno di un altro uomo. Una macchina, un robot, per quanto capace di imitare reazioni e comportamenti umani, svolgerà, al massimo, funzioni ausiliari, basate su indicazioni e intenzioni impartite dall’uomo.

Altra realtà fondamentale, che per sua natura si riferisce e appartiene solo all’uomo, è il sentimento di fede in Dio. La fede del genitore, dell’educatore, testimoniata nella vita, è indispensabile per educare e far crescere la fede dei bambini. Ma, acquisizione delle conoscenze su Dio non è sufficiente; in questo caso ci vuole prima di tutto l’esperienza di vita vissuta con altri in comunità. In questa categoria tipicamente umana entrano, egualmente, varie questioni esistenziali, come la vita stessa, l’amore, la sofferenza, la morte, questioni etiche, ecc.

Tenendo conto di quanto sopra riportato si può affermare che, probabilmente, sempre là, dove si tratta di impiegare le capacità di elaborazione dei dati, di eseguire le procedure basate sugli schemi, sui criteri o su algoritmi, l’IA potrà rivelarsi molto utile anche nell’ambito educativo. Nelle situazioni, invece, in cui sono richieste emozioni autentiche per creare relazioni tra le persone, in cui bisogna prendere decisioni uniche e irrepetibili imposte da situazioni attuali, in cui bisogna riferirsi ai valori o alla dignità della persona, oppure in cui emergono categorie simboliche o questioni di senso sembra che l’intervento umano sia sempre indispensabile, anche se, non lo escludiamo, ci si potrà servire anche dei risultati elaborati dall’IA.

Elemento decisivo nel formulare questa affermazione è il fatto che l’intelligenza, non solo quella artificiale, ma anche quella umana (espressa alle volte al plurale, come intelligenze multiple) è sempre una capacità di affrontare un certo tipo di problemi. Aggiungiamo che, oltre all’intelligenza, c’è anche una qualità umana che definiamo con il termine “saggezza”. Questa si basa non solo sulle conoscenze e sulle capacità elaborative della mente, ma anche su una moltitudine di altri fattori, come intuizione, emozioni, senso, contesto, esperienza di vita. Sicuramente le macchine potranno essere molto più veloci e più precise nell’elaborazione dei dati, soprattutto, quando questi sono molteplici; potranno essere chiamate anche intelligenti. Ma, difficilmente potranno essere dichiarate anche sagge.

Infine, ricordiamo la domanda iniziale riguardo alle opportunità e ai limiti dell’IA nell’ambito educativo, si può dire che, come in altri settori dell’attività umana, anche l’IA potrà costituire una reale estensione delle facoltà umane, una effettiva possibilità di allargare e velocizzare le capacità elaborative dell’uomo, ma, sempre rimarranno situazioni e momenti in cui l’intervento umano sarà insostituibile. Perciò, come in tutte le Nuove Tecnologie Digitali in generale, anche qui devono essere piuttosto le prospettive pedagogiche a guidare l’introduzione dell’IA in campo educativo. È sbagliato il processo contrario, quando cioè, lo sviluppo tecnologico incide primariamente sull’attivazione di vari processi e solo dopo si cerchano le motivazioni pedagogiche ed educative per quanto si è realizzato.2 Per quanto siano affascinanti gli sviluppi attuali nell’ambito dell’IA, bisogna ricordare però che, se le soluzioni tecnologiche domineranno unicamente le discussioni a vari livelli decisionali, gestionali e scientifici, si va incontro al pericolo che anche i cambiamenti nelle strutture formative ed i risultati educativi risultino limitati.3
___________

1  W. Holmes, M. Bialik, Ch. Fadel, Artificial Intelligence in Education. Promises and Implications for Teaching & Learning, Boston, CCR, 2019, p. 98.
2 E. Garcia, The use of artificial intelligence (AI) in education https://www.openaccessgovernment.org/artificial-intelligence-ai-in-education/66346/, acc. 24.05.2020.
3 J. Hunter, Artificial Intelligence (AI) in School Education: Are You Ready For It? In https://educationtechnologysolutions.com/2019/03/artificial-intelligence-school/, acc. 24.05.2020.

TAGLIAFERRI Michelangelo – Fondazione Accademia di Comunicazione
Gruppo di studio EDUCAZIONE (nella sua ampia accezione)

IL DONO DELLA PAROLA NEL DESERTO DELLA SCARSITA’ E DELLA TECNOLOGIA

Sembra innegabile che ogni dato di concretezza e realtà prodotto dall’uomo o con il concorso dell’uomo sia frutto di un suo desiderio e di una comunicazione tra sé e sé e tra sé e gli altri. Dato un problema da risolvere con il concorso degli altri si mobilitano a vario titolo ed in vario modo le energie per risolverlo. Ogni soluzione di problema in quanto oggetto di desiderio, nella segmentazione connessa all’accettazione vita e al rifiuto della morte, è una messa in forma di energia naturale.

Ciò significa che ogni prodotto o servizio viene realizzato con il concorso misto di stati di energia e condizione di scambio di energia dell’uomo con la natura e quindi anche con sé stesso come individuo e come specie. In termini più semplici si può affermare che non c’è “oggetto del mondo” che non sia caratterizzato da questo scambio energetico orientato alla vita che dà vita alla vita così come, sulla base delle nostre conoscenze, la stiamo concettualizzando, producendo e riproducendo.

Nell’uomo possiamo chiamare questa energia che mobilita il desiderio energia psichica o, alla maniera di Freud e Jung, libido. Le nostre società fatte di sistemi complessi stanno perdendo progressivamente questa capacità di generare condizioni favorevoli allo scambio libidico: sono società fatte da individui sempre meno sognanti e predisposti alla meraviglia. I motivi sono complessi e non possiamo in questa sede darne conto in modo esauriente, ma è certo che sempre meno sogniamo e quindi abbiamo sogni da condividere e realizzare.

La marcata accentuazione del processo di anticipazione finalizzata del futuro in economia obbliga da una parte a calcolare sempre di più il ritorno dell’investimento economico determinando a priori la misura della quantità del ritorno atteso. Operiamo quindi massimamente attraverso il metodo della probabilità e della contabilità.

Contemporaneamente la tecnologia, che integra sempre di più i processi produttivi, crea una iper-realtà che si muove secondo questa regola di razionalità economica dispiegata e la combinazione tra prodotti, come desiderio finalizzato alla redditività e tecno-scienza. riducono lo spazio di rischio che l’individuo e la società è in grado di tollerare e riducono l’investimento di energia psichica così come conteniamo il consumo di carburante o di informazione. Di fronte ad un problema c’è sempre di più una soluzione, ma oggi si privilegia quella che anticipa i nessi causali in termini balistici e configura il risultato come obiettivo da raggiungere lasciando ai margini le conseguenze non intenzionali dell’azione.

In questo contesto l’uomo muta la sua condizione antropologica e nell’economia di mercato dei sistemi capitalistici mercantili avanzati ogni prodotto deve a monte essere generato da una energia che subisca il controllo del desiderabile andando verso un fruitore che è chiamato a 

desiderare in termini contenuti nello stimolo e dare la risposta attesa. In questa condizione di parsimonia psichica e precauzione sistemica, visto che gli attori sono in concorrenza tra di loro, vince chi è in grado di avere creato un prodotto o un servizio a concentrazione marginale massima di contenuto di desiderio tale da mobilitare la attenzione massima e il desiderio, ma altrettanto marginale, del fruitore ipotetico. Da qui l’esigenza di tecnicizzare il più possibile le competenze che riassorbano i rischi di possibili fallimenti.

In questo contesto la comunicazione è sempre più intenzionale e finalizzata, tecnicizzata e sottoposta alle regole della teoria dell’informazione. Questa modalità è funzionale alla creazione di un uomo “creato” dall’uomo che non è in competizione con i robot ma che è pronto per dare vita ad una iper-realtà con memoria fuori da lui alla quale ricorrere nella soluzione sempre più complessa dei problemi in termini di tecniche, criteri e procedure standardizzate.

In questo contesto il rischio è quello connesso alla perdita progressiva della creatività e giocoforza riduce lo spazio del pensiero e del libero arbitrio a favore di procedure standardizzate di omologazione culturale oltre che operativa. In questo senso l’innovazione deve abbandonare il suo contenuto ideologico per asseverarsi nella pratica e per dimostrare come e in che cosa può fungere da fattore di miglioramento della comunicazione, dei processi decisionali, delle attività di ricerca ed innovazione e di un miglioramento della qualità della vita.

E la qualità della vita riguarda tutti.

Per esempio, la Commissione Europea nella ricerca di una società più user friendly ha dato direttive e raccomandazioni per assicurare che siano realizzati ambienti, prodotti, servizi ed interfacce di lavoro per persone di tutte le età e abilità nelle diverse situazioni e nelle diverse circostanze. Nasce così il Design for all che è il design per la diversità umana, l’inclusione sociale e l’uguaglianza (EIDD, Dichiarazione di Stoccolma, 2004) In base a questo indirizzo la Commissione incoraggia i produttori e fornitori di servizi a produrre nuove tecnologie per tutti, tecnologie che sono studiate tanto per gli anziani e le persone in disabilità, quanto per la techno-tendenza degli adolescenti.

 L’Accesso Universale implica l’accessibilità e l’usabilità delle Tecnologie dell’Informazione e delle Telecomunicazioni (ICT) da parte di tutti, in ogni luogo e in ogni momento, e l’inclusione di tutti in ogni contesto di vita. Tende a rendere possibile un accesso equo e una partecipazione attiva, potenzialmente di tutti, alle attività umane mediate da calcolatore e dalle telecomunicazioni, sia esistenti che emergenti, sviluppando prodotti e servizi universalmente accessibili e usabili e mettendo a disposizione nell’ambiente, quando necessario, adatte funzionalità di supporto alle persone. Questi prodotti e servizi devono essere capaci di soddisfare i requisiti individuali degli utenti in contesti di uso differenti, indipendentemente dalla locazione, dagli apparecchi utilizzati o dal loro ambiente operativo. L’approccio tendente a permettere l’utilizzo dei servizi e delle apparecchiature è generalizzato, con lo scopo di consentire l’accesso alla Società dell’Informazione nel suo complesso. Si suppone che i cittadini vivano in ambienti popolati di oggetti intelligenti, in cui le attività da svolgere e il modo di svolgerle siano completamente ridefiniti, comprendendo una combinazione di attività quali l’accesso all’informazione, la comunicazione interpersonale ed il controllo ambientale. Ai cittadini deve essere garantita la possibilità di svolgere tali attività facilmente e piacevolmente. L’interazione non va più intesa con calcolatori e terminali, ma con l’ambiente e gli oggetti in esso contenuti. Perciò, devono essere presi in considerazione paradigmi, metafore, media e modalità differenti. Inoltre, l’utente/cittadino non dovrà svolgere compiti determinati dall’applicazione in uso, ma coerenti con gli obiettivi da raggiungere nella vita quotidiana, differenti nei diversi ambienti applicativi. 

Gli obiettivi da raggiungere potranno essere complessi non solo per la prevista integrazione di funzioni per l’accesso all’informazione, la comunicazione interpersonale e il controllo ambientale, ma anche perché queste possono coinvolgere comunità di utenti. Questo dà un’idea della complessità dei problemi da affrontare, della limitazione dei concetti classici di accessibilità e della necessità di approcci innovativi.

La multimedialità in contesto. All’interno di questo contesto e con queste problematiche va presa in considerazione la tematica della multimedialità come stato di fatto in evoluzione delle applicazioni tecnologiche più avanzate in ITC per l’attuazione di una cultura della società in trasformazione che privilegi i processi di informazione, comunicazione, partecipazione, democrazia e libertà nella progettazione del futuro. La multimedialità altro non è che la possibilità di costruire oggetti di comunicazione che integrino quanto viene percepito dai nostri sensi ed in particolare dall’udito, la vista e il tatto e che siano fruibili a partire da questa polisensorialità. Inoltre, questi oggetti multimediali possono utilizzare come vettori una combinazione rilevante di media (poli-mediali) sempre di più interattivi dal Web 2.0, alla radio web, al mobile, alla informazione in rete, alla produzione in streaming per processi complessi che vanno dalla diffusione dell’informazione, alla formazione, alla educazione, alla prevenzione, all’addestramento, all’intrattenimento, alla e-governance… ecc.

La diffusione dei sistemi telematici di comunicazione e interazione essendo isomorfi al sistema sociale modelleranno un nuovo modo di apprendere e di memorizzare oltre ovviamente che di colloquiare e ciò avrà necessità di operatori sempre più qualificati impegnati nei diversi campi e settori 

Per ora se mai servisse a far comprendere l’importanza della tecnologia multimediale valga per tutto questo elenco di vantaggi ad essa connessi. La multimedialità per i disabili per esempio:

1. è un medium audiovisivo
2. è interattivo
3. l’oggetto può essere riprodotto e modificato
4. può essere personalizzato rispetto alle esigenze dell’utente
5. è multisensoriale e quindi ha un potenziale di apprendimento adatto ai portatori di deficit sensoriali e cognitivi
6. favorisce la creatività e può essere multiforme
7. può includere le motivazioni allo scambio multimediale
8. è in grado di valorizzare le esperienze di successo con registri sia razionali che emozionali
9. può utilizzare facilmente l’audio feedback
10. può essere utilizzato in dinamiche di gruppo e di neocomunità (social net, 2.0)
11. rompe le barriere di diffidenza e di esclusione
12. crea i presupposti per una intelligenza connettiva

NON È UNO SCENARIO FANTASTICO?

Questa sembra dunque la deriva che orienta tutta la azione comunicativa tra gli uomini e i sistemi e la costruzione sociale dell’economia. Sorge però spontanea la domanda di dove stiamo andando e di come il mito della torre di Babele non sia una profezia che si sta realizzando.

Non è mia intenzione entrare nella esegesi biblica, ma credo che valga la pena di mettere qualche paletto alla riflessione che stiamo svolgendo in queste ore.

1. Mi sembra innegabile che tutta l’umanità stia convergendo verso una lingua sola e per lingua sola non intendo la lingua materna, ma i confini dell’Universo mondo ridotto ad un enorme sistema di calcolo, con la scusa che la natura è retta da regole matematiche….Un buon modo per far fuori la natura ed usarla a fini contabili di marginalità decrescenti.
2. Mi sembra altrettanto innegabile che una economia formale si stia sovrapponendo ad una economia sostanziale e che il rapporto mezzi – fini stia prendendo il posto della
abbondanza di vita. Lo schema problematico della scarsità, da principio materiale dell’economia di mercato, diventa spazio mentale di chi vive in una società capitalistica come la nostra.
3. Tutto ciò avviene rendendo scarsi tanti fattori a partire dalla parola secondo uno schema che è semplicissimo: noi usiamo parole per esprimere concetti che vanno bene sia per la società economica tradizionale che per quella moderna, ma non ci rendiamo conto che il significato con la presenza dello schema mentale della scarsità cambia radicalmente la direzione di rotta dell’agire sociale.
In questo contesto anche la lingua e le parole diventano scarse e come in Babele il linguaggio dell’umanità si blocca e sembra incapace di permettere lo scambio che non sia finalizzato e matematizzato e rende impossibile e non plausibile il dialogo, la comunicazione (come dono comune e come barriera, ma anche come sistema immunitario) e la assunzione di responsabilità. Le parole si chiudono e si sigillano, gli elementi simbolici che le costituiscono diventano codice e non sono più aperte verso la realtà e l’umano, che ha bisogno di generare le differenze ed integrarle e non omologarle e normalizzarle neutralizzandole.
4. Torniamo all’assunto iniziale di una società iper-codificata e di controllo, ma estremamente affascinante rispetto al mito del Demiurgo proteiforme, alla creazione di una seconda natura, al mutamento morfogenetico e filogenetico…. Una umanità costruita in una Natura ricostruita e adattata…e magari anche migliorata, una lingua che diventa mille linguaggi tutti formalizzati……tanti quanto le stelle nel cielo.

QUINDI?

Bene, si vede come l’inizio del Verbo e il dono della parola sia diventato scarso e quindi le rappresentazioni del mondo presente, passato e futuro sempre meno oggetto di racconto dove il mito possa raccontare dei mille percorsi di una umanità che passa dal deserto ad Eden……Ma se è vero che Babele è una profezia, anche Eden lo è…. e noi stiamo andando in quella direzione seppure a fatica e in mille contraddizioni.

Quindi riflettere su cosa fare in ordine alla comunicazione da vivere in una società ipertecnologica tocca almeno tre campi di intervento: 

– il primo campo che oggi rimane in ombra, ma che scatterà inevitabilmente in futuro, concerne l’immagine di Dio nell’uomo e l’immagine dell’uomo nel robot. E non perché qualche volta prende la forma di umanoide, ma perché è come se una parte di noi, fuori da noi, prendano vita rendendoci sempre più cyborg.
Da una parte l’essere umano, nella Genesi è stato creato ad immagine di Dio mentre nell’Esodo è proibito all’uomo di “tagliare” effigi idolatre. Sèlèm o pèsèl per l’uomo a più dimensioni, per l’uomo e la sua ombra o oggi per il robot.
– il secondo campo riguarda certamente il linguaggio. Le lingue materne e il linguaggio universale creato dall’uomo che è capace di “fare” linguaggi più o meno formalizzati. In questi linguaggi troviamo la iper-codificazione dei sistemi e il linguaggio simbolico del sogno e di tutte le forme di immaginazione ed arte. In che direzione ci prepariamo ad andare?
Mentre la società si muove in una direzione, la tecnologia, con i suoi linguaggi formalizzati, va da un’altra parte e la distanza rischia di essere insanabile se non si interviene per dare “senso” al nostro stare come umanità sulla terra e non governiamo responsabilmente e solidalmente le scoperte scientifiche e tecnologiche.
Quindi è fondamentale l’impegno nella comunicazione. Per una comunicazione capace di realizzare una umanità solidale, in modo sostenibile e capace di darsi diritti e doveri nella soluzione dei problemi della Vita.
– il terzo campo concerne l’educazione e la formazione, certamente alla comunicazione con i prodotti tecnologici, ma soprattutto per renderci consapevoli della relazione con la conoscenza e con la sapienza per migliorare le condizioni di vita.
L’integrazione degli sforzi di Fondazione di Accademia con IIT vanno in questa direzione e a maggior ragione sono da allargare a tutto il campo della nostra riflessione. In modo ancillare, ma efficace, creativo, ma non paranoico, umile, ma determinato.
La comunicazione che non è una azione in sé crea le condizioni perché le azioni avvengano, la realtà si possa modificare e l’uomo possa esercitare il suo libero arbitrio o se si vuole, realizzare il disegno provvidenziale della Vita.

Per questi motivi la Fondazione Accademia di Comunicazione è disponibile a dare il suo contributo in questi tre campi, con tutti gli attori, nazionali ed internazionali, che ne sentissero la necessità e con i suoi strumenti a disposizione perché questo progetto possa realizzarsi.

AGENDA

Concretamente si può ipotizzare di:

1. Trovare i linguaggi e le figure retoriche più adatte a rappresentare la soluzione dei problemi utilizzando tutto il sistema polimediale in modo multimediale cioè con la combinazione migliore di suono, parola ed immagine fisse e in movimento: dal racconto al messaggio in pagina fino allo spot e allo storytelling e tutto il trattamento grafico e grafico editoriale si rendesse necessario.
2. Attivare i laboratori adatti a trovare il mix di linguaggi consolidati ed innovativi che consentano la corretta produzione di senso dei messaggi inerenti all’utilizzo tecnologico.
3. Ideare le narrazioni che consentano una corretta divulgazione delle scoperte e degli utilizzi della nuova tecnologia.
4. Ipotizzare e creare dei prototipi che consentano l’educazione all’utilizzo tecnologico destinato a pubblici diversi, in particolare ai meno favoriti e meno normo-dotati.
5. Progettare delle app utili ad un utilizzo facilitato e consapevole della tecnologia.
6. Identificare le variabili importanti per disegnare la mappatura ideale della relazione culturale tra principi e regole che consentano il più efficace uso delle tecniche, facendo riferimento ai Big Data e alle ricerche sociopsicologiche disponibili.
7. Affrontare il design dei prodotti d’innovazione tecnologica.
8. Progettare corsi e percorsi adatti alla formazione degli operatori di comunicazione o la specializzazione sul tema di tecnologia e sostenibilità degli esistenti.
9. L’utilizzo del suono, della musica e delle espressioni artistiche ai fini di una più consonante comunicazione che consenta la partecipazione popolare alla nuova realtà che sta prendendo forma.
10. Integrare e far convergere i media di comunicazione per una sempre più corretta rappresentazione della relazione tra individuo, costruzione sociale e tecnologia utile a rendere la società più equa e solidale.

Questi sono esempi di campi di applicazioni e non sono esaurienti, ma consentono di comprendere in che cosa la Fondazione può impegnarsi una volta che siano scelte le priorità da perseguire.

PASQUALETTI Fabio – Università Pontificia Salesiana
Responsabile Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

L’uomo nasce comeΤέχνη

È la parola che ci ha umanizzato, e la parola è già una forma di techné. La storia dell’evoluzione dell’uomo è una storia di evoluzione tecnologica e sono proprio le tecnologie della comunicazione che hanno impresso le svolte più radicali nella comprensione di ciò che siamo. Le tecnologie della comunicazione sono tecnologie di potere. Forse non è un caso se la prima sfida che Adamo ed Eva incontrano nel racconto del libro della Genesi riguarda proprio la conoscenza: «nel giorno in cui voi ne mangerete, si apriranno i vostri occhi e diventerete come Dio, conoscitori del bene e del male» (Gn. 3,7). Da sempre la Τέχνη è un modo per l’uomo di conoscere il mondo e sé stesso. In questo senso credo che studiare l’Intelligenza Artificiale sia un ulteriore modo di conoscere l’uomo, e come sempre proprio per la combinazione di conoscenza e potere è un gioco che può essere ambivalente e pericoloso, perché la natura animale, istintiva, predatoria presente in ognuno di noi si invaghisce e si appropria di tutto ciò che le può dare potenza e dominio. 

La rivoluzione digitale: un modo analogico ad altissima qualità

Un aspetto curioso che spesso mi capita di constatare è che tutti parliamo della rivoluzione portata dal processo di digitalizzazione, e in effetti è stata una rivoluzione la possibilità di leggere e convertire la realtà in dati. Questi dati vengono dati in pasto alle macchine (computer) che però ce li restituiscono in un analogico ad altissima definizione. La ricchezza della realtà sta nella sua sovrabbondanza di informazione. Per esempio, noi non vediamo gli infrarossi né gli ultravioletti, abbiamo bisogno di dispositivi di rilevamento che ce li restituiscano in modo intelligibile, spesso sono rappresentazioni grafiche. Anche se questi sistemi funzionano molto bene e ci restituiscono quello che noi deduciamo dalla nostra interazione con la realtà allo stesso tempo comprendiamo che il problema di cosa conosciamo e come rimane. Anche un sistema IA non può prescindere dal problema della conoscenza. In particolare, quando a nutrire i sistemi di elaborazione sono sempre dati che sono tuttavia parziali rispetto alla ricchezza della realtà. 

Una società e una cultura del calcolo: algoritmi e big data

Il fatto che le nostre macchine, per ora, siano dei calcolatori, vuol dire che la loro conoscenza è generata delle regole del calcolo, non possono prescindere da questa. Nel film I robot, Del Spooner (Will Smith) interpreta un poliziotto che non ama molto i robot. La ragione la si capisce quando racconta ciò che gli è successo, il fatto, cioè, che un robot dovendo scegliere chi salvare tra Del Spooner e una ragazzina che stava affogando nell’acqua a causa di un incidente, salva Del Spooner sulla base del calcolo probabilistico. Del Spooner si rifarà a questo caso per stabilire, secondo lui, la differenza tra un robot e un umano. Un umano non avrebbe mai ragionato in termini di calcolo, ma avrebbe tentato di salvare la vita della ragazzina a costo di perdere la sua. Prendo lo spunto da questa piccola narrazione per dire che siamo già in una società regolata quasi esclusivamente da logiche di calcolo, non fosse altro perché il dominio finanziario e tecnologico lavorano su queste basi. Gli algoritmi finanziari decidono in frazioni di secondo acquisti o vendite che possono mettere in crisi una intera nazione. La tecnologia inevitabilmente retroflette sul modo con cui facciamo le cose e pertanto ci ridefinisce anche nel nostro essere di uomini. Una società e una cultura del calcolo riduce a variabile di calcolo anche l’uomo. Il dataismo è una teoria che, addirittura, vorrebbe porre fine alle teorie e alle ideologie lasciando il primato interpretativo ai dati. Il problema è che anche questa è una ideologia che non tiene conto del pregiudizio dei dati. Ma davvero tutto si può ridurre a calcolo nella nostra vita?

Risvolti sociali ed economici

Non nascondo che questa parte è scritta sotto l’influsso della lettura del libro di Shoshana Zuboff, ‘Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri’. Shoshana Zuboff afferma che oggi viviamo nel regime del capitalismo della sorveglianza, qualcosa di inedito e per questo sfuggente alle categorie classiche di analisi, per il fatto che questa nuova forma di capitalismo si appropria dell’esperienza umana, quella di miliardi di persone che agiscono nella rete, attraverso l’acquisizione di dati o tracce digitali che lasciamo. Questi dati, raccolti dai grandi gestori della rete (Google, Facebook, Apple, Amazon e altri giganti dell’informatica) vengono analizzati e trasformati in dati comportamentali. Alcuni vengono usati per migliorare prodotti e servizi, ma il resto, definito surplus comportamentale, sottoposto all’analisi di algoritmi che costituiscono il sistema di Intelligenza Artificiale, vengono elaborati e vanno a costituire i prodotti predittivi capaci, come dice il nome, di fare previsioni e orientare i comportamenti futuri delle varie tipologie di utenza. «I capitalisti della sorveglianza hanno scoperto che i dati più predittivi si ottengono intervenendo attivamente sui comportamenti delle persone, consigliandole o persuadendole ad assumere quelli che generano maggiore profitto».[1]

Intelligenza artificiale e l’obsolescenza umana

Prima la religione, poi la politica, adesso la scienza e la tecnica e in particolare nella promessa di IA, reincarna la promessa della sconfitta dei mali dell’umanità. Le intelligenze artificiali al servizio dell’uomo e le dipendenze dell’uomo dalle intelligenze artificiali, è il delicato loop nel quale insinua sempre il problema del potere e del controllo dell’uomo sull’uomo. Richiamo la domanda che un giovane manager ha posto nel 1981alla Zuboff: «Lavoreremo tutti per una macchina intelligente o sarà quella macchina ad essere usata da persone intelligenti?»[2] Sullo sfondo la problematica della storia dell’umanità fatta di Domino e sottomissione, titolo dell’ultimo libro di Remo Bodei[3], il cui sottotitolo è molto suggestivo: Schiavi, animali, macchine, Intelligenza Artificiale. Dalla recensione si intravede l’analisi che Bodei fa del meccanismo della schiavitù come motore di sviluppo e civilizzazione. Il processo di trasferimento della nostra intelligenza, ma anche della nostra volontà apre scenari di indiscusso interesse, ma di notevole problematicità.

Povertà globale: la vera sfida all’intelligenza artificiale

Le società occidentali sono lanciate verso il processo di smartizzazione del loro habitat. Le città si stanno popolando di dispositivi IOT (Internet Of Things) tutti collegati alla rete, che mappano ogni nostra attività e movimento. Creano un cumulo dati tale da poter ipotizzare e prevedere comportamenti personali e sociali. Il termine è società data driven. Questa mappatura promette un miglioramento del funzionamento non solo della città, ma della qualità di vita. 

Rimane tuttavia un problema molto concreto che non si può ignorare se non pensando ad un imminente neo-medioevo dove ci saranno spazi metropolitani blindati in cui tutto funzionerà alla perfezione, e fuori dalle mura, come al tempo dei castelli medioevali, il resto di una popolazione abbandonata a sé stessa. In un mondo sempre più lottizzato da guerre geopolitiche per il controllo delle risorse e delle materie prime, più della metà della popolazione mondiale già vive la globalizzazione della povertà. La vera sfida all’intelligenza artificiale, ma soprattutto ai padroni delle intelligenze artificiali, è quella di trovare una soluzione per un mondo più giusto e equo per tutti. La tecnologia è sempre specchio della nostra umanità.

_______

1 Shoshana Zuboff, Il capitalismo della sorveglianza: Il futuro dell’umanità nell’era dei nuovi poteri, Roma, Luiss University Press, 2019, Kindle, posizione 234-237.
2 Zuboff, Il capitalismo della sorveglianza, posizione 143.
3 Remo Bodei, Dominio e sottomissione. Schiavi, animali, macchine, Intelligenza Artificiale, Bologna, Il Mulino, 2019.

COVINO Mauro – Formez PA 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

L’Intelligenza Artificiale è uno Strumento Tecnologico che modificherà anche il nostro approccio culturale alla vita quotidiana, utile, ma da tenere sotto controllo per le possibili interazioni uomo-macchine non controllabili.

Quanto il web e la sempre più avanzata intelligenza artificiale incidano sulle nostre scelte, sui nostri comportamenti, arrivando persino a prevederli e a distinguere le nostre emozioni non è più utopia, ma una realtà sempre più concreta e, a tratti, invasiva, sia negli ambiti personali che professionali, come quando vengono chiamati in causa per decidere quali persone assumere. Ovviamente a fianco di queste prospettive positive, se ne prefigurano altre di segno opposto, portate avanti da osservatori critici che sottolineano, per esempio, come questo tipo di novità metta a repentaglio posti di lavoro per gli uomini. Eppure, le preoccupazioni su questa importante incidenza non si limitano solo al dato numerico riguardante i posti di lavoro, ma investono invece un aspetto meno direttamente misurabile, tirando in ballo la possibilità di una progressiva erosione delle facoltà di giudizio e di azione, o meglio, delle caratteristiche che rendono l’uomo, uomo.

In definitiva è preferibile una posizione in chiaro curo, dove non prevalga necessariamente il Positivo ed il Negativo.

CURRO’ Salvatore – Università Pontificia Salesiana – Facoltà di Teologia 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

In realtà non ho una posizione specifica sulla questione dell’IA, che peraltro non ho studiato in modo approfondito. Accosto tale questione con curiosità, con la consapevolezza dell’importanza di un confronto da diversi punti di vista (anche disciplinari) e a partire da un mio specifico interesse antropologico. Mi occupo di antropologia catechetica e pastorale e avverto che la cultura attuale si porta dentro una domanda e una provocazione forte sul senso dell’umano.

Tale domanda-provocazione emerge in rapporto a fenomeni diversi che, credo, ci sfidano a un approccio sistemico, non settoriale, un approccio che sappia vedere le interconnessioni. Quello antropologico mi sembra un punto di vista importante e anche un orizzonte decisivo dentro cui avvertire le questioni. Di fatto, è in gioco il senso dell’umano, ed è già in atto un radicale mutamento antropologico che diversi punti di vista e apporti possono far comprendere sempre meglio. 

Per quanto l’accostamento possa sembrare azzardato, mi sembra che il fenomeno dell’IA si connette profondamente con altri fenomeni che costituiscono altrettante sfide nel nostro tempo, in particolare: i fenomeni legati alla corporeità (idealizzazione del corpo e insieme fuga da esso); il problematico rapporto dell’uomo col mondo animale e con la dimensione animale della propria esistenza; i rapporti umani e le sfide delle differenze (sessuali, culturali, ecc.); l’istanza e insieme la fatica della riconciliazione con la terra e con la materia; la riconciliazione con la sensibilità e il farsi strada della via estetica. 

Sullo sfondo intravedo: la crisi di ogni visione essenzialista dell’uomo, la crisi del soggetto, la crisi del pensare l’essere-nel-mondo secondo il paradigma del rapporto soggetto-oggetto. Si aprono lentamente nuove strade segnate da: riconciliazione con sé, con la fragilità, con la finitudine (avvertita come pieno e non come vuoto); senso di sentirsi figli e insieme custodi della terra; superamento della dicotomia tra materia e spirito. Una sfida radicale è forse quella di superare i dualismi di ogni tipo, che segnano la cultura occidentale: corpo-anima, natura-cultura, spirito-materia, io-tu, uomo-macchina, immanenza-trascendenza, ecc. 

Tale superamento non è nel senso di una trascendenza (andare oltre), ma nel senso di un arretramento, una risalita, una riconciliazione, una resa all’essere-materia-corpo-legati gli uni gli altri, all’essere-con, direbbe Jean-Luc Nancy. Le singolarità umane emergono da una co-appartenenza tra noi, alla terra; emergono come ecceità e non come sostanze. Sostanza, soggetto… sono costruzioni; forse necessarie, ma, essendo costruzioni, non sono la parola prima e decisiva.

Nell’attuale dibattito antropologico, a volte anche in posizioni che sembrerebbero molto avanzate, si affrontano spesso le questioni – mi pare – senza mettere in crisi la visione essenzialista o sostanzialista. Ciò avviene anche nel dibattito relativo al rapporto da assumere nei confronti della tecnica e dei suoi prodotti. Lo schema rimane se l’uomo riuscirà a dominare il robot o se il robot, prodotto dall’uomo, prevarrà sull’uomo. Lo schema rimane quello del soggetto-oggetto e quello del potere o meno dell’uomo. L’uomo è pensato ancora come soggetto; l’umano è pensato in termini di controllo, di dominio, di potere. 

In fondo l’uomo si è sempre caratterizzato, in Occidente, per il logos, che lo differenzia dalla natura e dagli animali, e che gli dà un primato (comunque esso venga interpretato).  Mi pare interessante l’ipotesi, che Günther Anders avanzava già diversi anni fa, della “vergogna prometeica”. Il porsi come soggetto, da parte dell’uomo, sarebbe attraversato dalla vergogna per le proprie radici, dalla vergogna di essere fatti di terra, di essere solo polvere e di ritornare polvere, del fatto di essere animali. Si nasconde forse anche, inconsciamente, la vergogna di essere in divenire; che implica anche una segreta gelosia (o invidia) nei confronti delle cose e degli animali, che, a differenza dell’uomo, sono compiuti. L’uomo è l’incompiuto e si muove su una via per cui, mentre cerca compimento fuori di sé, si ritrova sempre più incompiuto (e quindi sempre più frustrato).

Ma l’uomo non può pensarsi come compiuto? La trascendenza, più che come allontanamento da sé, dal proprio corpo, dalla terra, dalla materia, non può essere pensata come riconoscimento (che implica riconoscenza, resa, riconciliazione) del vivere-di e quindi come un abitare la differenza piuttosto che come un volerla o doverla colmare a tutti i costi? L’attuale lotta tra l’uomo e la macchina (e l’impostazione del problema nel senso di chi vincerà) è forse il culmine di una illusione millenaria per cui l’uomo sarebbe costitutivamente un soggetto. O forse siamo al momento della resa. Il culmine della volontà di dominio è anche il culmine della fragilità. Si scopre l’illusione. Si scopre la vergogna, la nudità. C’è forse una sfida alla riconciliazione. Mi sembra importante lavorare per una “antropologia della riconciliazione”.

DANELUZ Diana – FERPI 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

La mia posizione – da non tecnico – è di curiosità per qualcosa che mi coinvolge come persona e come comunicatore, e di studio. Ritengo essenziale un approccio non solo scientifico, ma anche culturale nel senso più ampio di fronte a questa evoluzione della tecnologia. Mi sembra di poter condividere le linee guida europee di novembre 2019 che guardano ad una IA dal volto umano, inclusiva e diffusa in modo imparziale: applicazioni di intelligenza artificiale che promuovano il benessere e l’emancipazione delle persone, di tutte le persone, nel rispetto dei loro diritti fondamentali. Anche se la parola “regole” fa arricciare il naso a molti, credo che vadano individuate e di necessità a livello globale. Educare, è stato scritto, chi “crea” l’IA, ribadire la centralità dell’Uomo.

È recente una risoluzione richiesta dagli eurodeputati per maggiori tutele, ad esempio, dei consumatori nel contesto dell’IA. Rispetto al rapido sviluppo delle tecnologie IA e dei processi di decisione automatica (Adm) si chiede di aggiornare le norme sulla sicurezza e responsabilità dell’Ue per i nuovi prodotti basati sull’IA, di utilizzare algoritmi e strutture di controllo imparziali e di garantire “che l’uomo rimanga il padrone della situazione”: nel momento in cui i consumatori interagiscono con il sistema Adm dovranno essere correttamente informati sul suo funzionamento (si gioca un nuovo ruolo della Comunicazione, su come raggiungere un essere umano con potere decisionale e su come le decisioni del sistema possano essere verificate e corrette. Il sistema dovrebbe utilizzare solo insiemi di dati imparziali e di alta qualità, come algoritmi spiegabili e imparziali, per costruire la fiducia dei consumatori). La risoluzione prevede strutture di controllo per correggere errori nelle decisioni automatizzate e la possibilità per i consumatori di richiedere un riesame umano e un ricorso per decisioni automatizzate definitive e permanenti. 

Il 2020 è stato definito, per esempio dagli osservatori di IBM, l’anno della svolta per l’adozione dell’IA da parte di aziende ed organizzazioni, ma sarà una adozione complessa, non solo per gli aspetti di governance umana e le problematiche di etica in capo alle preoccupazioni del progetto universitario cui stiamo contribuendo, ma anche per alcune difficoltà oggettive: la limitata esperienza – e competenza – in queste tecnologie, la crescente complessità dei dati da gestire, la mancanza di strumenti per lo sviluppo di modelli di IA personalizzati sulle proprie esigenze. Tuttavia, molte aziende globali prevendono di aumentare gli investimenti nelle aree principali di IA quest’anno. Pertanto, è un futuro che è già qui ed ora e una riflessione critica alla quale è anacronistico sottrarsi.

MATTEI Federico – IBM
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

L’intelligenza artificiale sta trasformando la nostra società e la nostra economia. Questa tecnologia ha un potenziale enorme per il bene sociale, ma vi sono anche validi motivi di preoccupazione in merito ai rischi, quali: pregiudizi, sicurezza, privacy e trasparenza. Molto lavoro è stato svolto nell’Unione Europea e non solo per definire i principi che guidano l’implementazione etica delle soluzioni basate sull’IA in modo che mettano al centro l’uomo. Il prossimo passo è sviluppare questi principi di alto livello a un livello più dettagliato e specifico e, se necessario, introdurre una regolamentazione adeguata.

OLIVA Stefano – Pontificio Ateneo S.  Anselmo – Facoltà di Filosofia
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

La possibilità di produrre, o riprodurre, attraverso la tecnologia, alcune funzioni essenziali della mente umana, dal pensiero verbale alla percezione, affonda le proprie radici in un’aspirazione che da secoli muove l’essere umano e che, se opportunamente interrogata, trova preciso riscontro nel patrimonio mitico delle diverse civiltà. Dal sogno di Pigmalione – l’umanizzazione e l’investimento affettivo di un artefatto – alla leggenda praghese del Golem, vero e proprio robot ante litteram, la fantasia di riprodurre le più elevate funzioni umane in maniera artificiale ha sempre celato il desiderio di una più profonda comprensione dell’uomo.

È questo forse uno degli aspetti più interessanti e al contempo più sfuggenti della riflessione che le scienze umane possono produrre in merito all’intelligenza artificiale. Filosofia, psicoanalisi, letteratura comparata, storiografia e sociologia sono chiamate a interrogare l’innovazione tecnologica, sondando i desideri e le aspirazioni che fanno da spinta alla costante evoluzione dell’intelligenza artificiale, senza trascurare d’altro canto le paure e le questioni etiche da essa suscitate.

STAFFOLANI Marco – Pontificia Università Lateranense 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

La mia esperienza riguarda il campo dell’ingegneria elettronica, e della teologia. Secondo il primo aspetto conosco quali sono i componenti necessari per realizzare tecnicamente una IA: un computer su cui giri un programma, un linguaggio di programmazione con cui codificare l’algoritmo, i sistemi di connessione di rete ecc. Secondo questo aspetto credo l’IA non sia altro che realizzare sempre più a nostra immagine e somiglianza gli oggetti che utilizziamo quotidianamente, di modo che ci siano familiari sia nella comunicazione sia nelle forme di utilizzo. Secondo questa prospettiva sono molto aperto al futuro e contento che la vita quotidiana venga semplificata, però senza che questo implichi una svalutazione della persona, che deve sempre rimanere al centro dell’esperienza.

Secondo l’aspetto teologico posso dire che la mia riflessione è ancora “giovane”, difficilmente si trovano articoli scientifici che trattino tecnica e teologia, ma sarà sempre più necessario approfondire il binomio, in quanto la IA nelle sue varie applicazioni incrocia tanti temi cari alla teologia, come ad esempio la persona, la comunicazione, il corpo…


3 aspetti positivi e 3 problematici dell’IA

CAPPELLA Antonio – Strategic Digital Communication
Responsabile Gruppo di studio GOVERNANCE (e management)

Cito questo testo… “Qualsiasi tecnologia sufficientemente avanzata permette di fare cose incredibili, spinge costantemente avanti la frontiera delle possibilità e offre nuove opportunità agli esseri umani, intesi sia come individui che nelle loro forme aggregate”.

Molte volte quindi viene percepita come misteriosa, distante e forse pericolosa come l’Intelligenza Artificiale perché pensa più velocemente di noi, forniscono soluzioni più velocemente e potrebbero sostituirci. La tecnologia in sé non è né buona né cattiva, ma è uno strumento che le persone usano per raggiungere i loro obiettivi.

Il valore è nell’interpretazione, nella responsabilità e nell’etica.

Se è vero che la tecnologia è così vantaggiosa e, allo stesso tempo, così aliena, ci vuole qualcuno per decodificarla in modo che le persone possano beneficiarne per comprendere sia il potenziale offerto dalla tecnologia sia il modo in cui questa possa essere utilizzata per migliorare l’esperienza vissuta dagli esseri umani nelle loro diverse dimensioni, come individui, consumatori, lavoratori e cittadini. Ma l’atto di interpretazione non è neutrale; al contrario, è orientato in base ai valori e questo ne influenza l’uso che ne verrà fatto ed è un dilemma di natura etica e morale.

Complessità e trasparenza.

Mascherare la complessità della tecnologia per offrire prodotti e servizi facilmente comprensibili e adottabili è sì fondamentale perché libera gli utenti dalla necessità di capire ciò che non hanno bisogno di sapere e amplia le loro possibilità di azione ma non è sempre positivo. Un’eccessiva semplificazione può comportare una perdita di controllo da parte delle persone sugli effetti del loro comportamento. Esempio ne è lo scandalo Cambridge Analytics sul traffico di dati personali raccolti tramite Facebook e utilizzato per condizionare il voto alle elezioni statunitensi o durante la Brexit. Altro fattore da considerare è che potrebbe impedire l’uso di prodotti e servizi a grandi fasce della popolazione, quelle più arretrate e meno abituate alle tecnologie contemporanee.

L’attenzione dovrebbe spostarsi dal prodotto o dal servizio in sé agli effetti del suo utilizzo. Ad esempio, come utente, dovrei essere consapevole che le mie preferenze alimentari – per fare un esempio innocente – se da me condivise su un’app di ricette possono essere utilizzate per profilarmi e forse consigliarmi alcuni ristoranti che potrebbero piacermi. Le persone dovrebbero essere messe in condizione di saperlo e, in una certa misura, di controllarne usi ed effetti.

Proattività e fiducia

Le tecnologie contemporanee sono proattive, anticipano l’utente, saltano alcuni anelli nella catena decisionale umana e offrono soluzioni pronte per l’uso. Usano l’enorme potenza computazionale e inferenziale dei loro algoritmi per analizzare i dati suggerire soluzioni, come ad esempio effettuare un acquisto di un prodotto o il modo più veloce per evitare il traffico nell’ora di punta. Ma è anche vero che possono imporsi sul comportamento delle persone e sostituire le loro scelte: ad esempio, gli aggregatori di notizie mostrano solo informazioni basate sulle preferenze degli utenti o enfatizzano le opinioni di un candidato a discapito dei suoi avversari.

La domanda ardente, in questo caso, è quella di potersi fidare degli strumenti che si utilizzano, che non siano trappole nel ridurre il nostro spazio decisionale o distorcere i nostri giudizi sulla realtà, forse a nostro danno e forse a vantaggio di poteri occulti.

I progettisti e programmatori dovrebbero difendere e promuovere i diritti degli esseri umani.

Progettazione, il problema dell’inclusione e il quadro giuridico

Le tecnologie possono essere la base per una nuova discriminazione sociale tra coloro che hanno accesso ai servizi tecnologici e quelli che non lo hanno: se è possibile aprire un conto bancario solo tramite un’interfaccia vocale e non so come usarla o non ho gli strumenti, sono escluso da una possibilità, per non parlare delle possibili distorsioni legate al voto elettronico. L’inclusione e l’accesso a informazioni e servizi è una questione ardente in ogni agenda politica. L’analfabetismo funzionale, la crisi della democrazia liberale e le seduzioni del populismo devono essere portati alla nostra attenzione come fattori fondamentali da tenere presente.

Quindi è importante promuovere le condizioni affinché gli esseri umani si fidino della tecnologia e il modello di relazione tra queste due entità deve diventare un ulteriore elemento per favorire la fiducia tra l’uomo e i sistemi di cui fa parte (aziende, mercati, istituzioni).

Inoltre, il legislatore deve considerare il modo in cui i cittadini interagiscono con la società ed è importante modificare la normativa per definire le regole per l’uso della tecnologia al fine di stabilire le basi per la creazione di un nuovo patto sociale tra società e istituzioni da un lato e l’utente/cittadino dall’altro nell’utilizzo delle nuove tecnologie.

ARIANO Chiara – Pontificia Università Lateranense
Gruppo di studio GOVERNANCE (e management)

Per ciò che concerne la mia competenza, vorrei in questa sede tracciare brevemente la relazione tra ambito sanitario ed IA, enucleando aspetti positivi e negativi.

La salute è uno dei contesti dove maggiormente possono essere rintracciate le potenzialità dell’applicazione dell’intelligenza artificiale.1

Mediante l’IA è, infatti, possibile – ex multis – effettuare:

1. diagnosi in tempi ragionevolmente più rapidi come, ad esempio, ha dimostrato uno studio pubblicato su Science Translational Medicine2 sulla diagnosi di malattie genetiche rare;
2. ottimizzare e personalizzare l’iter di cura con la costruzione di modelli predittivi;
3. curare a distanza attraverso strumenti come il Chatbot3 che, grazie alle informazioni ricevute, può suggerire la soluzione più opportuna;
4. fornire sistemi di supporto al processo decisionale per migliorare l’assistenza e l’esperienza dei pazienti;
5. formare il personale sanitario mediante simulazioni di casi o interventi chirurgici.

Per quanto concerne le possibili criticità, da una prospettiva biogiuridica, ritengo che, in questa sede, possano essere messe in luce:

1. la gestione di una potenziale grande quantità di dati deve necessariamente avere una regolamentazione ad hoc, in special modo per quanto concerne la privacy. L’importanza e il contributo dell’IA in ambito sanitario non può, infatti, comportare la violazione di un diritto fondamentale come quello alla riservatezza;
2. il ripensare alcune categorie giuridiche in termini di responsabilità professionale. La questione è rappresentata dal fatto che questo nuovo approccio tecnologico conduce inevitabilmente a realtà che non sempre trovano spazio nel codice civile;
3. la definizione, anche dal punto di vista etico, circa il quantum del contributo dell’Intelligenza Artificiale all’essere umano, in particolar modo per quanto concerne l’opportunità di salvaguardare l’autonomia della persona nei confronti della macchina.

___________

1   Il Medical Sieve e la startup Enlitic sono tra gli esempi più recenti.
2   Cfr. Link.
3  È un software progettato per simulare conversazioni con un essere umano.

FABBRETTI Anita – FERPI 
Gruppo di studio GOVERNANCE (e management)

Nel nostro campo di applicazione le principali caratteristiche positive di un approccio basato sull’impiego dell’Intelligenza Artificiale risultano essere:

1. la capacità di analizzare notevolissime quantità di dati, anche eterogenei, in tempi estremamente ridotti, senza perdere di generalità;
2. la flessibilità delle tecniche di correlazione tra i dati che consentono di disegnare approcci adattivi alla problematica da analizzare e di trovare in itinere dei correttivi per superare eventuali criticità riscontrate nel reale utilizzo dei sistemi realizzati;
3. la possibilità di integrare nuove sfaccettature a modelli esistenti, metodologia che riproduce l’approccio umano ai problemi, in modo da poter organizzare, sulla base delle nuove potenziali considerazioni, nuove tecniche di soluzione ad uno stesso problema.

Tutti gli elementi sopra descritti delineano la positività e l’interesse nell’Intelligenza Artificiale legata alla possibilità di analizzare un dominio di conoscenza ben caratterizzato e strettamente definito, in modo estremamente preciso e flessibile, con tempi di risposta eccezionali. Un tale approccio si sposa perfettamente con la costruzione di sistemi di sicurezza che hanno lo scopo di monitorare ampi perimetri in modo diversificato ed in tempo reale e che prevedono, in ogni caso, la supervisione di persone umane. Quindi, in questo caso, l’intelligenza artificiale è al servizio del supervisore e non lo sostituisce.

Nel contempo le principali caratteristiche problematiche risultano essere:

1. la necessità di un approccio che sia estremamente prudenziale nell’analisi dei dati, in quanto occorre delineare aree ben definite e protette per evitare sovrapposizioni che possano limitare fortemente la qualità dei risultati;
2. la difficoltà di interazione, all’interno di un sistema realizzato per specifici compiti di protezione, con i sistemi di Intelligenza Artificiale operanti in modalità cloud oriented (inseriti quindi in sistemi disponibili da remoto sotto forma di rete distribuita) sia in termini di predisposizione delle richieste che nell’integrazione dei risultati;
3. la complessità nel determinare i livelli di riferimento necessari oltre i quali richiedere l’intervento dei supervisori umani, cosa che determina la reale utilizzabilità ed efficacia dei sistemi proposti.

FARINA Francesco – Uniroma 2 – Centro studi intelligenza economica e security manager 
Gruppo di studio GOVERNANCE (e management)

Lascio più che altro qualche considerazione perché non esiste ad oggi letteratura dedicata che affronti nello specifico dell’IA i seguenti aspetti.

L’IA nelle sue forme evolutive sarà sempre più presente nella nostra quotidianità privata come professionale ed è un fenomeno che va analizzato e valutato sia in riferimento alle opportunità e vantaggi potenzialmente generabili, ma anche in termini di minacce e possibili conseguenze malevole impliciti nella sua applicazione.

Se la prospettiva ultima dell’IA è quella di far si che una macchina sia in grado di comprendere, interpretare, replicare e confrontarsi con il comportamento umano, sembrerebbe però che il percorso sia ancora lungo, non fosse altro perché una macchina che è per sua natura razionale, si deve confrontare con l’uomo, per sua natura irrazionale e talvolta geniale; a sua volta e nella sua irrazionalità l’uomo potrebbe (o dovrebbe) non rinunciare mai alla sua genialità per fidarsi completamente di una macchina, ovvero per affidarle particolari processi decisionali o relazionali senza poterli controllare.

Per quanto l’IA possa essere in grado di apprendere e replicare comportamenti è proprio la genialità o la “sregolatezza” umana che sarà difficile da replicare, nel bene e nel male.

Se non esiste ancora, per quanto ci è dato sapere, un sistema in grado di replicare perfettamente la mente umana nei suoi ragionamenti e nelle sue elucubrazioni, certamente si stanno però sviluppando e configurando forme di intelligenza artificiale come “strumento di supporto”, per ampliare la mole di dati analizzabili, moltiplicare la capacità di calcolo o analisi riducendone i tempi, per replicare o simulare comportamenti o ragionamenti umani “standardizzabili” o ripetibili, identificabili e ascrivibili in modelli o per l’appunto in algoritmi.

Parliamo di “Machine learning” piuttosto che di “Deep learning”, frutto di studi ultraventennali dalle prime reti neurali artificiali agli algoritmi di autoapprendimento automatico, fino all’ apprendimento neurale profondo.

Una esplosione dimensionale di dati raccolti e analizzati è la base dell’IA, in aumento esponenziale se si concretizzerà la progressiva esplosione dell’IOT, dati di cui si nutre e con cui si relaziona, che alimentano ed autoalimentano il suo bagaglio di esperienza.

Quindi se vogliamo ragionare sulla governance di questo fenomeno dobbiamo certamente partire dai dati, informazioni, segnali e connessioni, che da un lato lo alimentano, ma che ne rappresentano in termini di security anche la sua esposizione primaria.

Diventa quindi determinante curare il ciclo di vita del dato per garantire quella qualità e sicurezza che sono essenziali per l’IA, da quando e come lo raccolgo, come lo analizzo, come lo trasformo e valorizzo, fino a come lo conservo e tutelo, o a come lo cancello o distruggo a fine vita.

L’informazione è materia prima preziosa e lo sanno bene quei governi e/o aziende che stanno investendo ingenti capitali confidando nel valore potenziale generabile con il supporto dell’IA; non a caso Vladimir Putin avrebbe affermato qualche anno fa che diventerà padrone del mondo chi avrà sviluppato le migliori soluzioni di Intelligenza artificiale.

Ma in linea con Putin anche altri Paesi, in primis Cina e Stati Uniti, pur con strategie differenti stanno studiando il fenomeno: la Cina approccia alla IA ed in generale a tutta l’industria strategica come “ragion di stato”, con un sistema monocefalo che concentra gli investimenti, distribuendo i risultati delle ricerche secondo la sua logica al suo sistema di aziende “governative”; negli Stati Uniti ma in generale anche l’Europa si vede più una sorta di “innovation by competition”, incentrata su Partnership pubblico privato e acquisendo e valorizzando soluzioni frutto della competizione tra aziende, esperienze di start up etc. .

Ma qual è il valore economico potenziale dell’IA? Tanti gli studi e ottimistici i numeri sui benefici che otterranno le aziende che utilizzeranno forme di IA, cosi come drammatiche le prospettive per chi non lo farà; sembra però ancora presto per poter fare una prospettiva attendibile.

Si ha l’impressione invece, che troppo poco vengano contemplate le esternalità negative che l’IA come ogni altra innovazione può portare, soprattutto in termini occupazionali, sociali, di business continuity, di privacy e di sicurezza, per aziende o stabilimenti ad alta correlazione sistemica come per piccole imprese o semplici cittadini.

Come ogni strumento infatti, anche l’IA si presta ad un “multiple use” a seconda degli obbiettivi e dell’etica di chi la utilizza, dal favorire crescita e competitività al danneggiare un eventuale competitor. Pensiamo a sistemi utilizzati per captare il “sentiment” di cittadini o consumatori da recensioni, commenti su articoli o blog,  utilissimi ai fini di calibrare una strategia di vendita o di customizzazione di un prodotto o servizio, però potenzialmente viziati da “trolls”, che istruiti e con capacità di autoapprendimento, possono manipolare quel sentiment a seconda dei casi per rafforzare o distruggere la reputazione di un’azienda.

Ma sabotaggi e manipolazioni potranno essere perpetrati a discapito di soluzioni di IA applicate alla robotica in ambito industriale, sanitario o militare, con conseguenze di diversa gravità o impatto.

Innovare vuol dire anche aspettarsi l’uso improprio o distorto dell’innovazione, il che non significa chiudere all’innovazione, ma valutarne opportunamente anche i rischi e le possibili conseguenze negative, misurando a priori la propria capacità di implementare misure efficaci in grado di ridurre le vulnerabilità e contrastare le possibili minacce.

Quindi anche nel caso dell’intelligenza artificiale è necessario ed opportuno progettare e dimostrare “by design”, che si è in grado di implementare una innovazione perché si è in grado di gestirne le conseguenze negative potenziali oltre che i benefici.

GRANELLI Andrea – Kanso  
Gruppo di studio GOVERNANCE (e management)

La trasparenza degli algoritmi: man mano che gli algoritmi decideranno su temi critici e soprattutto politici (cioè relativi alla collettività in quanto parte di sistemi della Pubblica Amministrazione, esempio assegnazione case popolari, priorità negli interventi sanitari, ecc…) sarà indispensabile rendere pubblico anche il criterio adottato nella scelta. 

La regolazione e vigilanza dell’ecosistema dei dati: i dati – soprattutto negli algoritmi neurali – sono la benzina del motore algoritmico e ne determinano la qualità ed efficacia della performance. Tre questioni importanti si pongono: applicare logiche “antitrust” anche ai possessori dei dati. La loro eccessiva concentrazione può avere effetti devastanti non solo per la competizione ma per la stessa democrazia; aumentare la sofisticazione nel controllo delle fonti da cui si prendono i dati (ad es. per addestrare al riconoscimento facciale) per verificarne la liceità; costruire sistemi di verifica della qualità del dato e di prevenzione della loro possibile contaminazione (soprattutto quando i dati vengono usati da algoritmi che prendono decisioni pubbliche). Uno dei possibili ambiti degenerativi sul futuro uso dei dati (si pensi ad esempio a nuove forme di ribellione o terrorismo) sarà introdurre dati “sbagliati” per ingannare o deviare gli algoritmi. 

La capacità di continuare a pensare out of the box: quanto più il contesto muta e diventa innovativo – nel senso che presenta situazioni mai viste prima e su cui la conoscenza accumulata con l’esperienza non funziona – tanto più sarà importante/necessario poter pensare in modo innovativo, intuitivo, out-of-the box. Questa attività è propriamente umana, ma se – nel contempo – le macchine avranno assorbito molte delle decisioni tipicamente umane, vi saranno sempre meno persone “esposte” ai processi decisionali e quindi allenate a decidere… e quindi ad avere energia e capacità per affrontare “i cigni neri” e le nuove situazioni impreviste.

LOVERGINE Saverio – INAPP / Università di Tor Vergata – Gruppo di lavoro ESCO in Commissione Europea 
Gruppo di studio GOVERNANCE (e management)

NUOVO MODELLO DI GOVERNANCE E REGOLAZIONE

Aspetti positivi: una governance efficace è caratterizzata da una varietà di strumenti e soluzioni che influenzano lo sviluppo e le applicazioni dell’IA, al fine di: promuovere norme, etica e quadri dei valori; ricercare gli effetti, le implicazioni e le possibili soluzioni per l’uso dell’IA; attuare misure legislative e istituire organismi di regolamentazione formali per governare le tecnologie e i campi relativi all’IA.

Aspetti problematici: L’IA e la trasformazione digitale devono essere inclusive e generare benefici per tutti i cittadini, comprese le categorie vulnerabili. Quindi, tutti gli specifici meccanismi e standard di governance dell’IA devono essere affrontati (es: etica e quadri di valori, norme e misure legislative, strumenti di regolazione e trasparenza dei sistemi autonomi e della distorsione algoritmica, etc.) non solo a livello locale e nazionale, ma anche a livello internazionale (globale), e devono coinvolgere tutti gli attori interessati.

LAVORO, LAVORI e COMPETENZE

Aspetti positivi: Il timore che le nuove tecnologie possano distruggere il lavoro è vecchio quanto quello verso il capitalismo; per ogni posto di lavoro cancellato, l’innovazione e le nuove tecnologie ne hanno sempre creati di nuovi, spesso più dignitosi e con un salario migliore. L’IA cambierà profondamente il modo di lavorare: nuovi lavori e nuove competenze saranno richieste. Il progresso tecnologico rimane un processo lento a causa di ostacoli di natura economica, sociale e regolamentare; e molte professioni essendo composte da mansioni automatizzabili e non automatizzabili non permetterebbero la sostituzione totale di quel lavoratore.

Aspetti problematici: negli ultimi tempi, numerose analisi di rilievo accademico, divulgativo e giornalistico presagivano una serie di conseguenze negative per l’occupazione dovuta all’uso diffuso di IA, robotica e nuove tecnologie digitali. L’impatto di tali tecnologie sul mercato del lavoro è significativo in termini di mansioni (tasks) da svolgere e competenze (skills) richieste. Pertanto, ad una distinzione tra manodopera qualificata e non qualificata, si aggiunge una distinzione tra lavori manuali e processi cognitivi, di routine e non routine. I progressi di IA, robot e nuove tecnologie sono talmente rapidi e inarrestabili che le singole persone, le organizzazioni, i lavoratori e le loro competenze, e la politica stessa faticano a stare al passo di tali evoluzioni.

ALTRE PROBLEMATICHE

 L’organizzazione aziendale subirà notevoli cambiamenti che toccheranno le dimensioni spazio-temporali e dell’assoggettamento di tipo etero direzionale:
• ripensamento (se non stravolgimento) dell’intero sistema educativo e formativo, nonché di una ri-alfabetizzazione degli adulti. Ancora più importante sarà il rapporto tra sistema educativo e mondo aziendale, nonché il ruolo degli uffici di placement negli istituti scolastici e nelle università, e di tutti gli altri strumenti di dialogo con i territori e le loro economie.
• Ridistribuzione del reddito, indipendentemente dalla forma proposta e attuata. In caso contrario, i costi della transizione tra vecchi e nuovi posti di lavoro saranno pagati dai lavoratori più fragili, e si creeranno nuove diseguaglianze e discriminazioni.
• Il mercato del lavoro, se non il concetto di lavoro, non sarà più quello che intendiamo oggi. In futuro ci sarà un cambio di paradigma che modificherà, o cambierà totalmente, le forme di protezioni del lavoro “tradizionali”.
• Etica nella tecnologia. Il rischio è che con lo sviluppo di IA l’accesso e l’elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, è in gioco l’equità nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sarà automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze.

NATALE Domenico – ISO/IEC JTC1 SC7/WG6 “Software Engineering” – Commissione UNI-UNINFO “Intelligenza Artificiale” 
Gruppo di studio GOVERNANCE (e management)

Aspetti positivi:
1. ausilio dell’Intelligenza Artificiale alla veloce elaborazione di enormi quantità di dati, informazioni e regole, per facilitare decisioni che non sarebbe possibile altrimenti prendere da uno o più esperti;
2. capacità di memorizzare e diffondere esperienze e concause di eventi che potrebbero andare disperse;
3. fornire previsioni future per eventi dispersi nel mondo (ad esempio nel caso epidemie);
4. possibilità di orientare le decisioni sulla base di probabilità aggiornabili costantemente con tempestività.

Aspetti negativi:
1. mancanza di regolamentazione normativa;
2. segretezza o poca trasparenza degli algoritmi;
3. mancanza di un modello di qualità condiviso internazionalmente;
4. mancanza di strutture IoT (sensori) integrate con sistemi IA;
5. mancanza di feedback all’uomo e rischio di “non” coinvolgimento umano nelle decisioni supportate dall’IA e nella raccolta sistematica delle esperienze; governo del coinvolgimento umano in caso di informative non affidabili.

RE Marco – Uniroma 2 Tor Vergata 
Gruppo di studio GOVERNANCE (e management)

Aspetti positivi:
1. efficientamento della produzione;
2. miglioramento dei servizi di assistenza e controllo con un generale miglioramento di alcuni parametri delle società;
3. generale innalzamento potenziale del livello culturale medio della popolazione legato al trasferimento di risorse lavorative dal basso livello (produzione) a quello della gestione.

Aspetti negativi:
1. prospettive di carattere etico e di responsabilità morale nella gestione di molti processi che si baseranno su tecnologie ai (problematiche della correttezza in scelte critiche come nel caso di guida autonoma etc.);
2. il problema della polarizzazione delle basi di dati usate nell’apprendimento (supervisionato) di alcuni approcci alla IA;
3. problema della massiccia azione formativa di riqualificazione delle classi lavorative di più basso livello con conseguente tendenziale polarizzazione della cultura media in senso scientifico tecnologico.

Nella mia professione di docente universitario sono coinvolto nella ricerca in algoritmi della IA e nella loro implementazione in silicio. il mio interesse attuale è però anche molto orientato alle prospettive globali reali di queste tecnologie. Le loro reali prospettive sono intimamente legate alla industria dei semiconduttori mondiale che rischia processi di destabilizzazione legati all’eccessivo accentramento delle produzioni in poche costosissime fonderie di silicio e che già da ora è oggetto di atteggiamenti di sovranismo tecnologico.

BLASI Simonetta – FERPI / Università Pontificia Salesiana – Facoltà di Scienze della Comunicazione Sociale
Responsabile Gruppo di studio EDUCAZIONE (nella sua ampia accezione)

3 preoccupazioni

Quanta libertà può avere l’essere umano nell’ambiente digitale? In particolare quale tipo di comportamenti comunicativi/educativi sono largamente diffusi e promossi? Quale ruolo hanno oggi i mediatori culturali (docenti/sociologi/psicologi) nell’orientare i giovani in questi mondi rispetto ai possibili comportamenti comunicativi?

3 opportunità

Se e quando IA ci aiuterà a trovare soluzioni concrete e sostenibili (nel rispetto dell’umanità) per ripristinare un equilibrio sul pianeta di carattere ambientale, politico/economico e sanitario

ELETTI Valerio – Complexity Education Project (Università di Perugia)
Gruppo di studio EDUCAZIONE (nella sua ampia accezione)

Aspetti positivi:
L’umanità a breve avrà a disposizione strumenti cognitivi e di supporto alle decisioni mai visti prima, per capacità di memoria e velocità di elaborazione; il focus della questione sta nel fatto che le reti neurali artificiali sono costruite in sostanza mettendo insieme le esperienze degli umani, con la possibilità di tenere conto di tutti gli input contemporaneamente, con il loro specifico peso statistico. 

Aspetti problematici:
1. Primo problema è chi e con quali intenzioni costruisce gli algoritmi e seleziona i database con cui istruire gli strumenti di intelligenza artificiale.
2. Secondo (ma non per importanza) è il pericolo che piccoli gruppi di potere possano controllare la diffusione della conoscenza a livello globale (cosa sempre avvenuta, ma con volumi e velocità infinitamente inferiori).

Aspetti neutri:
Sembra un paradosso, ma pure dobbiamo renderci conto che le soluzioni basate su IA sono le uniche percorribili per gestire i problemi (gli scenari, le opportunità, le minacce) portate dallo sviluppo e dalla diffusione capillare delle varie IA che si stanno mettendo a punto e diffondendo a livello locale e globale.

Altri punti chiave per il settore “educazione”
– educazione alla struttura ibrida che include IA e Web 3.0, partendo dai concetti chiave:
a) definizione di intelligenza;
b) panoramica su teorie delle reti e dei sistemi complessi;
c) chiarimento di alcuni concetti “tecnici” chiave: 
–  che significa digitale;
–  che significa big data;
–  che significa rete neurale artificiale;
d) riflessione sulla (metafora della) memetica:
– sulla mente sociale (Minsky),
– sull’intelligenza connettiva (De Kerckhove) 
– e sull’intelligenza collettiva (Pierre Lévy);
– riflessione sui confini fra intelligenza e coscienza (vedi anche il lavoro fatto da Capra e Luisi nel loro “Vita e natura”, Aboca editore 2014);
– riflessione sulle relazioni (differenze, assonanze, interferenze) tra intelligenze vegetali, animali, umana e artificiali;
– riflessione sulla possibilità che emerga una coscienza globale, di ordine superiore alla nostra (vedi ipotesi di lavoro di Edgar Morin a questo proposito);
– nei percorsi formativi cancellare gli approcci sensazionalisti (robot antropomorfi, minacce di intelligenze artificiali, …) ribadendo concetti di base, come per esempio il fatto che la natura delle intelligenze artificiali appartiene anche a cose come la cellula fotoelettrica che ci apre la porta.

PASQUALETTI Fabio – Università Pontificia Salesiana  
Responsabile Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

Tre aspetti positivi
1. IA fa parte dell’evoluzione della nostra umanità.
2. Potenzialmente può davvero migliorare molti aspetti della vita dell’uomo sulla terra.
3. È un modo di conoscere ulteriormente chi è l’uomo ad un livello di complessità probabilmente mai sperimentato fino ad ora.

Tre aspetti negativi
1. È una tecnologia potente i cui effetti non sono ancora chiari e potrebbero sfuggire di mano specie se a finanziare i progetti sono poteri forti e interessi economici predatori.
2. Le implementazioni militari già in uso sollevano gravi problemi etici e di sicurezza.
3. La coniugazione di IA e bioingegneria è uno degli orizzonti che può far rabbrividire in termini di fattore creazione di nuove forme di vita.

COVINO Mauro – Formez PA
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

La disinformazione legata all’intelligenza artificiale che crea un danno per la Democrazia è sicuramente un rischio da prevedere. Nel corso di un recente esperimento Max Weiss, un ricercatore di Harvard, ha usato un programma di generazione testi per creare mille commenti in risposta a un appello del governo federale relativo al programma sanitario Medicaid. Ciascuno di tali commenti era diverso dall’altro, e sembrava frutto di persone reali che difendevano una posizione politica specifica. Hanno ingannato gli amministratori del sito Medicaid.gov, che li hanno ritenuti reali preoccupazioni di esseri umani in carne e ossa. (Negativo).

L’Umanesimo Digitale professa il recupero della centralità dell’uomo rispetto alle macchine e alla tecnologia, per avviare una “rinascita” della cultura, delle relazioni e della moralità. Esso non converte l’essere umano in una macchina, né investe le macchine del ruolo di “esseri umani”. L’Umanesimo Digitale riconosce la specificità dell’essere umano e delle sue capacità, servendosi delle tecnologie digitali per accrescerle e non per limitarle. (Positivo).

Sadin dice che con l’Intelligenza Artificiale «il libero esercizio della nostra facoltà di giudizio e di azione viene sostituito da protocolli destinati a modificare le nostre singole azioni o i singoli impulsi del reale al fine di “infonderci” la giusta traiettoria da seguire (Negativo).

Come il Rinascimento della metà del XIV secolo segna la scoperta di un nuovo modo di concepire il mondo, che pone al centro l’uomo con i suoi bisogni, le sue pulsioni e le sue sofferenze, il rinascimento dell’epoca digitale potrebbe essere ispirato dal bisogno di definire un nuovo rapporto tra uomo e macchina, nel quale la tecnologia aumenta le capacità umane, e diviene strumento fondamentale per la scrittura di un nuovo contratto sociale, orientato verso lo sviluppo sostenibile (Positivo).

CURRO’ Salvatore – Università Pontificia Salesiana – Facoltà di Teologia
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

Mi sembra si stia facendo strada:
1. una sensibilità per cui ci si sente co-appartenenti alla terra, commisti di materia, legati gli uni gli altri;
2. un’attitudine a pensare il futuro in termini di riconciliazione e di pacifica convivenza tra terra, uomini-donne, animali, robot…;
3. l’attitudine a pensare un’etica e una spiritualità nel segno della riconciliazione; v. la sensibilità verso una ecologia integrale, la riconciliazione coi sensi, il senso estetico, il sentire ogni singolo uomo come un’opera d’arte (un corpo che va modellandosi più che un soggetto che deve dominare).

Mi sembra problematico:
1. affrontare la questione dell’IA e del rapporto con la tecnica solo sotto l’aspetto etico e di un’etica costruita sul paradigma soggetto-oggetto (e che quindi rimane impigliata nella questione di chi vincerà);
2. che la riflessione teologica non riesca ancora a dare un apporto significativo su queste problematiche, rimanendo molto ad intra (anche se ci sono segnali di rinnovamento, ad es. la Laudato sii). Ho la chiara sensazione che la Rivelazione cristiana abbia delle risorse nuove da liberare, ancora inesplorate;
3. affrontare queste questioni nel prevalere dell’angoscia, della paura, e mancando di speranza.

DANELUZ Diana – FERPI 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

Aspetti positivi
1. Mi piace la metafora di “futuro come spazio ospitale” (a patto di lavorarci su) usata recentemente dalla Fondazione Leonardo, perché racchiude in sé un approccio positivo verso quello che è comunque inarrestabile: il progresso tecnologico. L’IA allo stato attuale mi sembra essere ancora una tecnologia seppure in rapidissima evoluzione, che, in moltissimi campi, dall’assistenza alla persona alla medicina, dall’educazione alla distribuzione dei medicinali, alla cura della solitudine. può adempiere al compito per cui la si è perseguita attraverso la ricerca: aiutare l’Uomo.
2. A regime, le tecnologie di Intelligenza Artificiale potranno consentire uno scambio comunicativo più facile e immediato tra organizzazioni pubbliche, sociali, Istituzioni e i cittadini nell’esercizio pratico dei loro diritti, rendendo semplici cose prima complicate, riducendo i tempi delle operazioni, consentendo proficui scambi a distanza. Questo presuppone però una educazione capillare della cittadinanza affinché nessuno resti escluso da questo tipo di benefici.
3. L’IA nel mondo del lavoro potrà alleggerire da molte mansioni “automatiche” l’Uomo e permettergli così di dedicarsi di più alla progettazione del lavoro, al ‘pensiero’ e, perché no?, perfino di avere più tempo per sé. Vantaggi economici molto forti per i produttori di applicazioni di IA. Dal punto di vista dell’occupazione il rapido cambio fino a tre generazioni di tecnologie rispetto alla durata della vita lavorativa di un uomo, potrà avere effetti sulla occupazione, ma anche favorire la nascita di nuove professioni. Per quanto riguarda il solo mondo dell’informazione professionale: algoritmi e dati possono migliorare il giornalismo e sostenere nuovi modelli di business, ma meno di 4 media su 10 hanno sviluppato ad oggi una strategia per l’intelligenza artificiale (Fonte: “New powers, new responsabilities”.)

Aspetti negativi
La preoccupazione sulla possibile nascita di una intelligenza artificiale coscientemente orientata a fare i “propri” interessi diversi da quelli degli umani è nata da considerazioni logiche, ma forse anche da una narrazione che precede (vedi enorme filmografia) gli sviluppi attuali, che si è andata via via sempre più diffondendo e che fa leva su paure ancestrali, forse, dell’Uomo. D’altra parte, ho letto però come ancora oggi gli umani “manchino di lungimiranza”. Potrebbero essere allo stato attuale della sua evoluzione aspetti negativi dell’IA:
1. Uno stravolgimento della percezione dell’Uomo come essere naturale. È recente i l’ibrido mostrato al telegiornale composto da IA e cellule animali: VIVO. Le implicazioni possono essere infinite e anche se questo tipo di ricerca si ammanta sempre di una giustificazione come speculazione genetica estrema per migliorare l’aspettativa e la qualità di vita dell’Uomo, non vedo così improbabili derive che sfuggano a controlli razionali e rispondano piuttosto a meri interessi di tipo economico o di acquisizione di potere. Io non credo che tutto si possa in nome della Scienza.
2. Il rischio insito nella velocità di evoluzione delle forme di IA rispetto alla lentezza umana nell’apprendere e metabolizzare le soluzioni prospettate dalla ricerca e dalla scienza. Senza una adeguata “riflessione” il pericolo di un uso non realmente utile e distorto di tali applicazioni forse esiste.
3. Concentrazione di potere e capacità predittive nelle mani di pochi. Chi detiene la proprietà delle tecnologie e degli algoritmi e le applicazioni IA così per loro natura pervasive, raggiunge e controlla molti a livello globale. Ingerenza di questi pochi nelle vite di ognuno di noi fin nella sfera più personale e intima: problemi gravi di privacy e sicurezza. Segnatamente per quanto riguarda il solo campo dell’informazione, all’interno delle redazioni l’automazione impone il fare i conti con le possibili discriminazioni operate dagli algoritmi che possono favorire la diffusione delle fake news e non solo. Essendo ad oggi le tecnologie dell’intelligenza artificiale avanzate sviluppate soprattutto da aziende tecnologiche come Google, Facebook e Amazon, va ‘regolato’ anche il rapporto con le grandi piattaforme tecnologiche che possono entrare in conflitto con i mezzi di informazione. L’informazione, e il consumo di informazione, è cambiato e sta cambiando e con esso devono cambiare le organizzazioni che lo producono: alfabetizzazione tecnologica, comprensione di che cos’è l’IA, strategie, soprattutto, nell’ottica di un ripensamento del giornalismo – e della comunicazione – come relazione per/con la comunità, per fornirle strumenti per vivere meglio.

MATTEI Federico – IBM 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

Punti di forza
1. Le tecnologie cognitive combinano apprendimento automatico, elaborazione parallela e analisi sofisticate per rispondere alle domande, fornire consigli e ricavare intuizioni predittive. Questi sistemi non solo possono sondare grandi quantità di dati, dal testo al suono, fino alle immagini, ma lo fanno a una velocità incredibile, scoprendo e presentando i dati e le informazioni necessari in pochi secondi. Tale capacità ha il potenziale di trasformare la produttività sul posto di lavoro in ufficio, presso il call center e nel personale che opera sul campo. Una ricerca IBM mostra che, utilizzando le capacità cognitive, la metà degli early adopter migliora la produttività e l’efficienza, e migliora il processo decisionale e la pianificazione. Oltre la metà vede anche riduzioni dei costi a seguito dell’adozione di tecnologie cognitive.
2. La combinazione di potenti strumenti di analisi, apprendimento automatico ed elaborazione del linguaggio naturale è di grande vantaggio sia per i ricercatori che per i medici. Le piattaforme di elaborazione cognitiva possono ridurre da settimane a minuti il tempo necessario per comparare analisi cliniche, comprendere il profilo genetico di un individuo e raccogliere informazioni pertinenti dalla letteratura medica. Ciò è particolarmente critico oggi che i professionisti medici hanno sempre meno tempo da passare al letto del paziente. I sofisticati dispositivi cognitivi consentono inoltre alle persone di assumere un migliore controllo della propria salute e ai professionisti di adattare i trattamenti a specifici regimi di vita.
3. Le piattaforme cognitive possono ingerire vasti volumi di dati per estrarre informazioni rilevanti da analisi e modelli molto più velocemente di quanto gli umani possano fare. La capacità di aggregare informazioni basate sull’evidenza da milioni di rapporti, documenti, previsioni, valutazioni e dati storici è un punto di svolta per tutte le istituzioni che devono stimare i rischi delle proprie attività in tempi rapidi. Le istituzioni leader utilizzeranno le capacità cognitive non solo per mitigare il rischio, ma anche per creare nuove fonti di valore. 

Punti di attenzione
1. I sistemi di intelligenza artificiale vengono sempre più utilizzati per supportare il processo decisionale umano. Mentre questa tecnologia ha la promessa di fornire preziosi vantaggi in una moltitudine di applicazioni, l’ampia adozione dei sistemi di intelligenza artificiale si baserà fortemente sulla capacità di fidarsi del loro output. La fiducia umana nella tecnologia si basa sulla nostra comprensione di come funziona e sulla nostra valutazione della sua sicurezza e affidabilità. Per fidarci di una decisione presa da un algoritmo, dobbiamo sapere che è affidabile ed equo, che può essere giustificato e che non causerà alcun danno. Abbiamo bisogno di garanzie che non possa essere manomesso e che il sistema stesso sia sicuro. Dobbiamo comprendere la logica alla base della valutazione algoritmica, la raccomandazione o il risultato ed essere in grado di interagire con esso, sondarlo e persino porre domande. Abbiamo bisogno di certezza che anche i valori e le norme delle nostre società si riflettano in questi risultati. Andando avanti, “build for performance” non sarà sufficiente come paradigma di progettazione dell’IA. Dobbiamo imparare a costruire, valutare e monitorare la fiducia. Bisogna sviluppare diversi approcci su come raggiungere equità, solidità, spiegabilità, responsabilità e come integrarli durante l’intero ciclo di vita di un’applicazione di intelligenza artificiale.
2. L’intelligenza artificiale trasformerà il 100% dei posti di lavoro e rivoluzionerà le competenze necessarie per avere successo nelle professioni del 21° secolo. Le aziende e i governi devono riconoscere che la loro forza lavoro è una risorsa rinnovabile strategica. Istruzione, riqualificazione e aggiornamento delle competenze sono essenziali per aiutare studenti e professionisti a costruire le giuste competenze per l’era digitale. L’inclusione deve sostenere lo sviluppo della forza lavoro.
Anziché definire l’IA come sistemi con l’obiettivo di replicare e superare l’intelligenza umana, gli esperti del settore e le principali società di ricerca come IBM comprendono che l’IA è meglio rappresentata dai termini “intelligenza aumentata”, poiché questi sistemi miglioreranno e aumenteranno le capacità umane affiancando e non sostituendo i lavoratori. Questi sistemi si faranno carico della attività routinarie e lasceranno agli esseri umani le attività più creative tipiche dell’intelligenza naturale.
3. Le aziende di tutti i settori dovrebbero agire per attuare una gestione responsabile ed etica dei dati. Il dibattito sull’etica dei dati dovrebbe evidenziare i valori e le norme che devono essere sostenute dalle società. Il modo in cui i dati vengono gestiti è una parte fondamentale della relazione di reciproca fiducia tra un’azienda e i clienti e, affinché l’economia digitale abbia successo, i cittadini, le organizzazioni e i governi di tutto il mondo devono avere fiducia nel modo in cui i loro dati vengono utilizzati. A tal fine, i codici e le linee guida professionali, unitamente agli sforzi di co-regolamentazione, svolgeranno un ruolo cruciale.

MEZZA Michele – Federico II  
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

Aspetti positivi
1. Partecipazione di quote sempre più estese di umanità ai benefici del progresso tecnologico, con un aumento ulteriore delle interconnessioni sociali e tecniche, tali da rendere ormai la metafora di Mc Luhan del villaggio di vetro una fotografia realistica del modello di vita planetario.
2. Un aumento sensibile della vita sia in quantità che in qualità, con un incremento della capacità di cura e di prevenzione che sta riducendo l’incidenza delle malattie e delle tare genetiche in maniera sensibile, anche grazie al prolungamento delle possibilità di intervento sanitario, che grazie a forme di telemedicina a distanza rimuovono gli ostacoli spaziali.
3. Accesso alle forme di partecipazione alle deliberazioni comuni di un numero sempre maggiore di persone, che stanno, anche se con caotiche conseguenze immediate, comunque imponendo una rivisitazione delle stesse formule della democrazia rappresentativa.

Aspetti negativi
1. Una concentrazione maggiore di potere decisionale e predittivo da parte di un ristrettissimo ambito elitario che sia nel novero del mercato proprietario (Silicon Valley) che di quello statale (Algoritmo nazione) si trovano a poter incontrollatamente a disporre di soluzioni globali di inusitata potenza ed effetto.
2. Violazione di limiti eugenetici e della stessa natura della persona umana esposta ormai a processi di ibridazione genetica che rende plausibile la manipolazione della stessa struttura antropologica.
3. Interferenza diretta su ognuno dei miliardi di individui che entrano nell’agorà digitale da parte di centri di calcolo in gradi di profilare, scannerizzare e pianificare i comportamenti umani a partire dalla più intima sfera emotiva.

OLIVA Stefano – Pontificio Ateneo S.  Anselmo – Facoltà di Filosofia 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

A favore dell’intelligenza artificiale gioca il fatto che essa incarna nella contemporaneità uno dei mitologemi fondativi della nostra civiltà. E, aggiungiamo, non uno qualsiasi, bensì quello in cui viene tematizzato il reciproco rapporto tra natura e cultura. Naturalmente culturale, l’essere umano trova nell’intelligenza artificiale (tecnologia che tende verso la riproduzione di funzioni superiori della biologia umana) un banco di prova per la tenuta stessa del binomio natura-cultura che è alla base del processo antropogenetico.

In secondo luogo, l’intelligenza artificiale è oggi la punta più avanzata di un più generale processo di innovazione tecnologica che sarebbe controproducente voler arrestare. Molto più lungimirante è studiarne la fenomenologia e tentare, per quanto possibile, di indirizzarne gli sviluppi. In quest’ottica, prendendo spunto da quanto affermato nel Manifesto accelerazionista (2018), immaginare il futuro significa abbandonare l’illusione nostalgica di un ritorno al passato pre-tecnologico e farsi carico, con coraggio e competenza, dei processi di innovazione, non ostacolandoli, ma piuttosto collaborando ad accelerarne la velocità in una direzione inedita ed emancipatoria.

Per questo motivo, dovendo immaginare il futuro e non solamente subirlo, l’intelligenza artificiale si presta meglio di altre innovazioni a uno studio delle potenzialità immaginative, ben rappresentate nelle recenti evoluzioni in campo letterario, cinematografico e più in generale nella fiction.

D’altra parte, un simile approfondimento porterà in luce anche le criticità e i quesiti connessi all’intelligenza artificiale. La stessa proliferazione di narrazioni sul tema dell’innovazione tecnologica e del machine learning (dal film Her, 2013, di S. Jonz, alla serie Netflix Black Mirror, 2011-2019) mostra come il tema sia frequentemente connesso a un immaginario distopico e apocalittico, che vede prevalere il dominio della macchina e la disumanizzazione della persona. Simili timori provengono dall’ambiguità del luogo comune che vorrebbe lo sviluppo tecnologico come neutrale e meramente strumentale: sappiamo invece che ogni mezzo è portatore di un messaggio proprio e, senza un preciso orientamento culturale ed etico, i ritrovati tecnologici possono produrre scenari altamente disfunzionali e indesiderabili. Tutto ciò infine sembra coincidere con il prevalere di una logica meramente quantitativa e tecnico-scientifica che, calpestando gli aspetti non matematizzabili dell’umanità, ne comprometterebbe la stessa sopravvivenza. Proprio a queste criticità potrà rispondere una integrazione tra prospettive tecnico-scientifiche e umanistiche.

STAFFOLANI Marco – Pontificia Università Lateranense 
Gruppo di studio SOCIETÀ (intesa come impatto psicologico-sociale-culturale)

Aspetti positivi:
1. l’IA intesa come dispositivo che interagisce vocalmente con l’essere umano (tipo assistente personale google, alexa …) permette di avere accesso alle informazioni e di gestire i vari dispositivi (connessi o non connessi alla rete) attraverso il linguaggio umano, rendendo molto più semplice l’interazione uomo macchina rispetto ai paradigmi precedenti (esempio linguaggi di programmazione, conoscenza tecnica del software o hardware). Si aprono le porte a nuovi fenomeni di massa;
2. l’IA intesa come dispositivo che sostituisce/integra il lavoro manuale (usurante e/o ripetitivo) permette all’essere umano di essere aiutato o completamente sgravato da lavori che vengono affidati alla macchina. L’uomo deve pensare soltanto alla governance delle macchine, dunque supervisionare il processo produttivo (compito direzionale) e garantire il buono stato fisico (elettrico/elettronico/meccanico/informatico) della macchina (compito manutentivo);
3. l’IA intesa come dispositivo per le cure mediche, permette diagnosi più rapide avvalendosi della conoscenza/esperienza umana una volta che questa è resa fruibile in forma digitale. Questo presuppone che il paziente fornisca i suoi dati medici almeno in forma anonima.

Aspetti problematici/negativi:
1a. la concezione popolare della IA. Le persone non addentro ai lavori, senza conoscenze filosofiche e tecniche, pensano che i nuovi modi di interazione vocale siano già delle istanze di personalità artificiale, mentre sono voci registrate e frasi preconfezionate che non fanno altro che mettere in voce delle funzioni a cui si accede normalmente con il mouse sul pc, o con il tap sul telefonino. Occorre chiarezza del processo, occorre una divulgazione dei processi tecnici in gioco, per far comprendere che cosa c’è dentro la “black box” IA;
1b. il trattamento dei dati personali. I big data che servono per far funzionare l’IA sono recuperati in maniera non chiara, attraverso piattaforme che pubblicizzano scopi non prettamente informatici o dichiarati. Occorre una maggiore trasparenza sul processo di acquisizione dei dati, sull’effettivo utilizzo dei dati stessi, e dare all’utente la possibilità di modificare/ritirare i suoi dati in qualsiasi processo della catena mediatica in cui questi siano coinvolti;
2. l’automazione ha tempi di processo sempre più rapidi e costi di realizzazione sempre più bassi. Questi cambiamenti non sono facilmente coniugabili con modelli industriali obsoleti e politiche lavorative che hanno tempi burocratici alti. Occorre evitare licenziamenti di massa, attraverso corsi di aggiornamento e piani di riqualificazione del personale (umano);
3. l’IA è caratterizzata da celerità e ripetibilità/affidabilità, ma non garantisce in sé stessa la qualità delle sue azioni. In campo medico ad esempio occorre fare attenzione a quali dati sono “in pasto” all’algoritmo. Se i dati rispecchiano un comportamento/know how sbagliato la macchina tenderà a riprodurlo quando sarà chiamata ad intervenire essa in modo automatizzato, ad esempio facendo salire il numero di falsi positivi nelle diagnosi, oppure non accorgendosi dei dati delle persone che hanno malattie.