M. Raffaella AGHEMO, Piera DI STEFANO, “Intelligenza Artificiale, disciplina etica e fake news”

ABSTRACT
L’Intelligenza Artificiale rappresenta il nostro futuro prossimo, ma l’utilizzo deve essere monitorato e controllato, in quanto studi autorevoli hanno dimostrato come l’apprendimento automatico e l’applicazione dell’algoritmo incorrano spesso in distorsioni di bias cognitivi, ossia l’applicazione dell’AI porta con sé i pregiudizi dei suoi creatori, causando giudizi arbitrari ed errati? È pertanto necessario stabilire dei punti fermi che “blindino” il ricorso a questa dirompente tecnologia e che ne veicolino il funzionamento, per evitare di “tagliare fuori” intere categorie o per garantire una libertà di manifestazione del pensiero che non sia “strumentalizzata” (fake news) da parte di  coloro che ne detengono il know-how.

M. Raffaella AGHEMO, Avvocato
Piera DI STEFANO, Avvocato


Intelligenza Artificiale, disciplina etica e fake news

La tecnologia non è certo quella risorsa neutra e infallibile che così tanti vedono, anzi, spesso condivide, ahimè, gli stessi pregiudizi e difetti degli umani che la creano. Un difetto particolarmente importante è il bias dell’algoritmo, ossia il trattamento discriminatorio degli individui da parte di un sistema di apprendimento automatico (bias in, bias out). Questo trattamento può assumere varie forme ma spesso porta alla discriminazione di un gruppo di persone sulla base di specifiche distinzioni categoriali.

Secondo uno studio scientifico dell’Università di Cambridge, comprovato da una mentalità piuttosto comune, ereditataci da film e letteratura, la rappresentazione dell’Intelligenza artificiale, anche nelle ricerche su Google, evidenzierebbe un atteggiamento fondamentalmente razzista: per distorsioni di bias cognitivi o semplicemente per tradizioni culturali più forti, tale rappresentazione mostrerebbe come, anche le cosiddette “macchine”, avrebbero identità razziali, al pari dei comuni stereotipi nel mondo reale, e mostrerebbero caratteristiche caucasiche e linguaggio “inglese standard della classe media bianca” (comprese gli assistenti vocali degli smartphone), a discapito di “slang” o dialetti neri, perché più lontani dai mercati di riferimento! Molte macchine sono antropomorfizzate, cioè fatte per essere in una certa misura simili all’uomo, al fine di facilitare l’interazione uomo-macchina.

Questo fenomeno viene definito, nello studio in questione, «razzializzazione dell’AI».

Il dottor Kanta Dihal, capo ricercatore dello studio, ha affermato: «Nei casi in cui questi sistemi sono razzializzati come bianchi, ciò potrebbe avere conseguenze pericolose per gli esseri umani che non lo sono». «Il bianco percepito dell’Intelligenza Artificiale renderà più difficile per le persone di colore avanzare nel campo.»

  • «La tecnologia come concetto astratto funziona come una mitologia bianca.» – (Joel Dinerstein 2006, 570)

La cosiddetta “bianchezza” delle macchine intelligenti la si riscontra non solo in robot umanoidi, chatbot e assistenti virtuali, ma anche nelle immagini stock di intelligenza artificiale e nelle rappresentazioni cinematografiche, e desta non poche preoccupazioni, in quanto questa cosiddetta “razzializzazione” esacerba pregiudizi e valutazioni errate!

Come scrive Bruce Sinclair, probabilmente, tale “configurazione” deriva da una mentalità generalizzata sulla classe che “sviluppa” tali sistemi, appartenente ad una elite che domina il mondo accademico negli Stati Uniti e in Europa, e che condivide stereotipi persistenti sulla tecnologia come provincia e prodotto di un particolare gruppo razziale.[1] Joe Feagin ha precisato: «La cornice razziale bianca include un insieme ampio e persistente di stereotipi razziali, pregiudizi, ideologie, interpretazioni e narrazioni interconnesse e immagini visive».[2]

A parere di Steve Garner, la ragione «per utilizzare il bianco come lente, è che spoglia un’identità normativa privilegiata del suo mantello di invisibilità».[3] Che le macchine possano essere razzializzate, nel senso che possano essere alle stesse attribuite caratteristiche che ne consentano la identificazione con le categorie razziali umane, è stato dimostrato empiricamente.

Tali macchine sono concepite come strumenti che sostituiranno compiti “sporchi, noiosi o pericolosi“: i servi robot bianchi permetteranno al padrone bianco di vivere una vita agiata senza dover interagire con persone di altre razze, attori di quelle mansioni ritenute “degradate”!.[4]

Si è altresì scoperto che la “vicinanza interpersonale percepita” di una persona con un agente virtuale è maggiore quando l’agente virtuale ha la stessa identità razziale di quella persona.[5]

Due studi recenti hanno ulteriormente esaminato il trasferimento di bias alle macchine, utilizzando il paradigma “shooter bias“. Questo paradigma è stato descritto, per la prima volta, nel documento del 2002, “Il dilemma dell’ufficiale di polizia: usare l’etnia per disambiguare individui potenzialmente minacciosi” (Correll-Park-Judd, The police officer’s dilemma: using ethnicity to disambiguate potentially threatening individuals, 2002): in un videogioco sparatutto, nel quale un individuo deve difendersi da altre sagome di individui armati, di diverse etnie, si è notato come “i partecipanti sparavano su un bersaglio armato, più rapidamente quando era afroamericano, rispetto a quando era bianco, e decidevano di non sparare a un bersaglio disarmato, più rapidamente quando era bianco rispetto a quando era afroamericano”.

Anche nelle configurazioni antropomorfe di robot umanoidi, Sophia della Hanson Robotics ha riscontrato molto più successo commerciale (interviste e partecipazioni a show televisivi), oltre che “rispetto” di altri come NaoPepper, proprio perché rispondente ad una conformazione femminile, bianca e caucasica! Nella categoria dei chatbot, la razzializzazione avviene per mezzo di indicatori sociolinguistici. Un aneddoto racconta come un ex dipendente Apple, “non nero o ispanico”, inserito nel team che stava sviluppando il riconoscimento vocale per Siri, il programma di assistente virtuale per il sistema iOS, mentre lavorava su diversi dialetti, inglese – australiano, singaporiano e indiano – chiese al suo capo: “E l’inglese afroamericano?” e il suo capo rispose: «Beh, i prodotti Apple sono per il mercato premium».[6]

Lo stesso algoritmo proprietario di Google dà una netta prevalenza alle immagini relative all’AI, con fattezze bianche e caucasiche, proprio perché le più diffuse e ricercate dai suoi utenti, per preferenze e popolarità!

Anche l’IA disincarnata è immaginata come White: i personaggi HAL-9000, in 2001: A Space Odyssey, e Samantha, in Her, sono doppiati da attori bianchi. Questa normalizzazione sta a significare, pertanto, che la bianchezza non è percepita dalla maggioranza delle popolazioni come un colore distinto, ma piuttosto come un’assenza di colore– colore sia nel senso letterale che nel senso della razza. Di conseguenza, la bianchezza dell’IA potrebbe essere considerata semplicemente un valore predefinito. Non appare come una caratteristica, ma è trasparente, come l’aria che respiriamo: il “marker non marcato”, come lo chiama Ruth Frankenberg,[7] una semplice accentuazione della cosiddetta “ideologia daltonista”, dominante tra i tecnologi della Silicon Valley, che «si divertono nel loro abbraccio di daltonismo come se fosse una risorsa e non una responsabilità provata»[8], ma che in realtà crea in capo a loro, una vera e propria responsabilità, che oscura la normalizzazione della bianchezza e l’emarginazione di altri gruppi. La stessa eterna lotta “uomo – macchina”, con alterne conclusioni di vittoria e di sconfitta, è sempre stata concepita come una lotta “parificata”, ossia, o come una vittoria su “esseri superiori”, difficili da sconfiggere, o come sconfitta e sottomissione a razze comunque “superiori”, e pertanto “razzializzate” come WhiteProPublica, gruppo di giornalismo investigativo senza fini di lucro, ha affermato che un programma di intelligenza artificiale utilizzato per impostare la cauzione ha contrassegnato erroneamente i neri come “a rischio di recidiva” due volte più spesso dei bianchi.

Già negli Stati Uniti, dove si usufruisce di un altro sistema, il C.O.M.P.A.S. (Correctional Offender Management Profiling for Alternative Sanctions), algoritmo usato dai giudici per calcolare la probabilità di recidiva entro due anni da un crimine, le Corti Penali americane si sono viste presentare un ricorso, a seguito di una condanna di recidiva, per un detenuto di colore, in quanto il sistema favoriva i bianchi rispetto ad etnie afro-americane!

Questa lunga e doverosa premessa fa capire come, nella comunità scientifica internazionale, forti siano le perplessità relative all’apprendimento automatico, il quale non escluderebbe, a priori e in toto, la possibilità di“errori”, ovverosia che questa tecnologia elimini informazioni in realtà veritiere, comprimendo così, fortemente, il diritto alla libera manifestazione del pensiero “umano”.

Questa preoccupazione assume una dimensione particolarmente significativa rispetto al fenomeno pericoloso ed allarmante delle cd. fake news. Eppure, è proprio attraverso il ricorso all’Intelligenza Artificiale che ad oggi si tenta di contrastare il meccanismo di creazione e propagazione delle false notizie, che a sua volta impiega robot abilitati al cd. machine learning.

In particolare, nel rapporto di autovalutazione di Facebook sull’applicazione del Codice UE di buone pratiche sulla disinformazione dell’anno 2019[9] si dà atto dell’evoluzione, nell’arco di un decennio, degli strumenti utilizzati dalla piattaforma per identificare notizie, contenuti e profili falsi. Nel proprio programma di fact-checking, che prevede altresì lo strumento della disincentivazione economica, consistente nella notevole riduzione della distribuzione di notizie false nel News Feed, con il risultato della diminuzione delle visualizzazioni di oltre l’80%, Facebook, accanto alla revisione dei contenuti ad opera di team di persone formate in tal senso, ha notevolmente implementato l’utilizzo dell’A.I. per rilevare ed eliminare notizie false, in particolare per identificare i titoli dei cd. clickbait anche all’interno di post individuali. Analogamente, Facebook ha dichiarato di impiegare l’A.I. per contrastare il cd. cloaking e di aver migliorato tale tecnologia al punto che la stessa è in grado di rilevare le violazioni su larga scala, senza fare affidamento sulle segnalazioni dei contenuti “dannosi” da parte degli utenti e addirittura spesso con maggiore precisione rispetto a tali segnalazioni (che di per sé sono alquanto circostanziate), dandola priorità ai contenuti, non tanto e non solo in base al fattore cronologico della pubblicazione, ma anche e soprattutto in base alla dannosità degli stessi, misurata prevalentemente con fattori quali la viralità, la gravità del danno e la probabilità di violazione. 

Il funzionamento dell’intelligenza artificiale nell’attività di filtraggio delle fake news sulla piattaforma americana si basa su una grande quantità di dati ed informazioni derivanti dalle revisioni effettuate dai team di esperti per identificare modelli di comportamento significativi e trovare contenuti potenzialmente illeciti, automatizzando le decisioni dei revisori per determinate aree, con accelerazione dei tempi di analisi da parte dei revisori stessi, che concentrano il loro intervento su decisioni maggiormente complesse, il che, è evidente, non evita il pericolo di minare il cd. freespeech.  

Non a caso, nel Report semestrale sull’applicazione degli Standard della community, pubblicato in data 11 Agosto 2020, relativo al periodo che va dal mese di aprile 2020 a giugno 2020 e nel quale si è dato atto della cancellazione di più di sette milioni di post “dannosi” e dell’applicazione di etichette di avvertimento su 98 milioni di informazioni errate relative al COVID-19[10], Facebook ha annunciato che per evitare “errori” nella rimozione dei contenuti istituirà un consiglio di sorveglianza e ha dichiarato di prevenire il pericolo di censura, nelle more, sulla base di un’indice di probabilità di violazione, tale per cui nei casi dubbi, scatta l’intervento di analisi e revisione di matrice umana.[11]

Rassicurazioni ad oggi insufficienti, non tanto e non solo per l’assenza di una disciplina organica sul regime di responsabilità delle piattaforme online per i contenuti informativi veicolati, ma anche e soprattutto per la difficoltà di individuare una base giuridica unanimamente riconosciuta ai fini della legittimità della rimozione di un contenuto fake pubblicato sulle medesime piattaforme, in termini di tutela della libertà di stampa, e più in generale, della libertà di manifestazione del pensiero. 

Tali perplessità sono emerse in maniera netta nel corso dell’audizione del Presidente dell’AGCom, Prof. Angelo Marcello Cardani, sulle proposte di legge C. 1056 e abb., recanti l’istituzione di una Commissione parlamentare di inchiesta sulla diffusione intenzionale, seriale e massiva di informazioni false del 9 giugno 2020.[12]

Aspetto ancora più significativo emerso nel corso della citata audizione dell’AGCom, è il risultato dell’analisi dei meccanismi sottesi alla propagazione della disinformazione in Italia e a livello globale, che ha evidenziato la stretta relazione di interdipendenza tra le distorsioni dell’informazione e le inefficenze del sistema dell’informazione, indicando quali cause di queste ultime “(…) La difficoltà di monetizzazione dei contenuti e la perdurante riduzione degli investimenti in informazione; la connessa regressione nell’uso di meccanismi di verifica nell’ambito della professione giornalistica; la ristrettezza dei tempi dell’informazione online, sia nella fase di produzione sia in quella di consumo(…). È in questo scenario che i cittadini rischiano di affidarsi sempre più a fonti informative alternative e non qualificate, che sono spesso alla base di strategie di disinformazione.[13]

I danni per i media sono, pertanto, notevoli, creandosi una sorta di corto-circuito: più essi perdono quote di utenti, più questi ultimi diventano bersaglio delle fake news, le quali, a loro volta, minano la credibilità ed affidabilità dei canali di informazione ufficiali, proprio perchè, per le ragioni sopra riportate, questi ultimi generalmente non sono dotati di sistemi di monitoraggio tali da identificare tempestivamente le notizie false che ad essi vengono artatamente ricondotte. 

Confindustria Radio Televisioni, impegnata in tutte le sedi istituzionali “(…) affinché siano portati i social network, e tutti gli OTT a condividere le stesse regole dei media tradizionali”, ritiene che il danno, che è senz’altro anche reputazionale, subito da questi ultimi dalla virale propagazione delle fake news, possa, in qualche modo, essere evitato per il futuro facendo rientrare “(…)l’attività “giornalistica” svolta da siti e social network (…) nel novero di quelle soggette alle disposizioni della legge 69/1963 e che sia equiparata la responsabilità degli editori rispetto a quella che gestiscono i siti online”.[14]

Nessuno Stato è esente da un approccio di analisi e di studio verso il fenomeno che insieme ad altre innovazioni tecnologiche, rappresenta il futuro in ogni settore, da quello sociale a quello economico. Temi ancora aperti che chiedono una risposta saranno, tra gli altri, quello di una eventuale personalità giuridica per i robot e per i sistemi di intelligenza artificiale e quello, forse ancor più delicato e controverso, dell’imputabilità giuridica dei danni eventualmente causati dalle “macchine”. Si aprono, dunque, una serie di interrogativi normativi ed etici, che necessitano di soluzioni legislative tali da garantire un equilibrio ed una doverosa compliance.

Recentemente, dall’incontro dell’Ufficio del Commissario per le informazioni del Regno Unito (“ICO”)con l’Alan Turing Institute, è nata una consultazione, suddivisa in tre parti, per spiegare le decisioni prese con l’intelligenza artificiale, dal titolo “Progetto ExplAIn“. Questa iniziativa, nata a metà del 2018, e dovuta all’impegno prioritario nello sviluppo dell’IA, all’interno del Regno Unito, rappresenta una guida sulle best practices da utilizzare per spiegare l’elaborazione dei dati ai soggetti coinvolti da sistemi decisionali con IA.

L’ICO ha fissato anche quattro principi-guida:

  • 1. Essere trasparenti: rendere comprensibile la logica tecnica alla base dell’output del modello e fornire motivazioni semplici che gli individui interessati possono facilmente valutare;
  • 2Essere responsabili: considerare la responsabilità in ogni fase della progettazione e dell’implementazione del sistema IA e se i processi di progettazione e implementazione sono stati resi tracciabili e verificabili per l’intero progetto;
  • 3. Considerare il contesto, in cui ogni tipo di realtà si trova ad operare; 
  • 4. Riflettere sull’impatto dell’IA sugli individui interessati e sulla società in generale, ad esempio se il modello è stato progettato, verificato e convalidato per garantirne la sicurezza, l’accuratezza, l’affidabilità e la solidità.

Alla luce di queste “raccomandazioni”, sui titolari del trattamento dati grava l’onere di garantire che qualsiasi sistema di Artificial Intelligence sia opportunamente spiegabile, e qualora esistano tecniche algoritmiche “opache”, inaccessibili alla comprensione umana, sussisterà l’obbligo di prevedere misure accessorie di prevenzione rischi, e che ogni tipo di “anomalia” possa essere prevista, analizzata, valutata e mitigata (magari attraverso tecniche che possano includere alberi decisionali o elenchi di regole, regressione lineare, ragionamento basato su casi specifici o regressione logistica).[15]

Una supervisione umana è ancora l’opzione migliore, in quanto, si sa, alle reti neurali mancano due componenti squisitamente umane, la comprensione e l’intuito.


Bibliografia:


[1] Sinclair B., Integrating the histories of race and technologyin Technology and the African-American Experience: Needs and Opportunities for Study, 2004

[2] Feagin J., The white racial frame: centuries of racial framing and counter-framing, 2013.

[3] Garner S., Whiteness: an introduction, 2007.

[4] Murphy R., Introduction to AI robotics,2000.

[5] Liao e He, The racial mirroring effects on human-agent in psychotherapeutic conversation, 2020

[6] Benjamin R., Race after technology: Abolitionist tools for the New Jim Code, 2019.

[7] Frankenberg R., Introduction: local whitenesses, localizing whiteness’, 1997

[8] Noble S.U., Algorithms of oppression: how search engines reinforce macis, 2018

[9] Annual self-assessment reports of signatories to the Code of Practice on Disinformation 2019, Facebook annual Report, in https://ec.europa.eu/digital-single-market/en/news/annual-self-assessment-reports-signatories-code-practice-disinformation-2019

[10] Di diverso avviso, il ReportFacebook’s Algorithm: A Major Threat to Public Health, a cura e pubblicato dall’ONG Avaaz in data 19 agosto 2020, secondo il quale le reti che diffondono disinformazione sulla salute hanno ottenuto su Facebook circa 3,8 miliardi di visualizzazioni nel corso del 2020, proprio avvalendosi dell’algoritmo della piattaforma e raggiungendo l’apice con lo scoppio della pandemia di Covid-19. Secondo Avaaz, Facebook ha, in realtà, cancellato solo il 16% dei “post fake”. Il Report è reperibile inhttps://secure.avaaz.org/campaign/en/facebook_threat_health/)

[11] Community Standards Enforcement Report, 11.8.2020, in  https://about.fb.com/news/2020/08/community-standards-enforcement-report-aug-2020/

[12] Audizione dell’Autorità per le Garanzie nelle Comunicazioni, Esame delle proposte di legge c. 1056 e abb., recanti istituzione di una commissione parlamentare di inchiesta sulla diffusione intenzionale, seriale e massiva di informazioni false (cosiddette fake news), 9.6.2020, in https://www.agcom.it/documents/10179/18952580/audizione+al+parlamento+09-06-2020/0a9f973c-cd7f-4c90-9ef1-dbe1b3f0dc29?version=1.1

[13] Cfr. nota 3, pag. 9.

[14] Commissione parlamentare d’inchiesta sulla diffusione seriale, massiva e intenzionale di informazioni false (cd. fake news). AC. 1056 E 2013., Osservazioni CRTV, 5.3.2020, in di informazioni https://www.camera.it/temiap/2020/07/16/OCD177-4476.pdf

[15] ICO and The Turing consultation on Explaining AI decisions guidancein https://ico.org.uk/about-the-ico/ico-and-stakeholder-consultations/ico-and-the-turing-consultation-on-explaining-ai-decisions-guidance/


M. Raffaella AGHEMO, Avvocato

Avvocato, appassionata di tecnologia e prestata al mondo della comunicazione e del web, con una formazione trasversale, orientata a un felice connubio tra formazione giuridica e curiosità futurista, svolgo la professione come consulente in proprietà intellettuale, copyright, privacy e Innovation Technology. Scrivo editoriali su riviste italiane ed estere. Sto seguendo un progetto blockchain in ambito luxury. Ho co-fondato, a inizio 2020, un collettivo di dieci professioniste con competenze trasversali, in diritto finanza e tecnologia, a supporto delle imprese, che si chiama IUSINTECH.  Sono stata nominata, a Luglio,  membro senior del Comitato di Presidenza dell’Ente Nazionale per la Trasformazione Digitale, orientato ad una diffusione della conoscenza inclusiva ed etica. 

RELATRICE NEI SEGUENTI CONVEGNI:

  • 31/05/2019: Intervento “Cookie Law e Marketing on line”, LEX Drink meetup “Un anno di GDPR, esperienze a confronto”, organizzato da Legal Hackers Roma, presso Talent Garden Prati, relativo al tema della privacy ad un anno dall’efficacia del Regolamento europeo.
  • 13/11/2019: Intervento “Cookie Law, CGUE e nuove guidelines sull’utilizzo dei cookies”, Meetup #AperiTech di Legal Hackers “Cookie Law: ultime novità dopo la sentenza CGUE”, organizzato da Legal Hackers Roma & Codemotion, presso LuissEnlabs.
  • 23/06/2020 Intervento Webinar “Intelligenza Artificiale e business: cosa c’è nel futuro?”, organizzato da FIDAPA BTW Italy. Agenda importante con relatrici che illustreranno come l’intelligenza artificiale cambierà il nostro mondo e le nostre professioni. Le donne dovranno essere più protagoniste.

LINK PROFILO LINKEDIN:
https://www.linkedin.com/in/raffaella-aghemo-58b9a1b/

_____

Piera DI STEFANO, Avvocato

Appassionata dei temi giuridici più innovativi, si occupa di reputazione on line, crimini informatici e privacy. Nel 2012, con l’avv. Michele Di Somma, ha creato il servizio T.R.ON® (Tutela della Reputazione ONline)  e nel 2017 il progetto Avvocato del Web®, concepito come una Rete di professioni e competenze legali, informatiche e di web communication in materia di web e nuove tecnologie. Scrive da 5 anni per Costozero in materia di web reputation e data protection e da ultimo per la rubrica “Homo-Covid” di Radio24. Coautrice di testi su diritto e nuove tecnologie, fa parte del comitato scientifico di Consumerismo, del team legal (Tavolo Trasparenza) del progetto blockchain del Comune di Napoli ed è co-organizer di Legal Hackers Campania, movimento globale di avvocati, policy maker, tecnologi e accademici. Ha da poco concluso, insieme ad altri professionisti (avvocati, informatici, project manager), il Tour di divulgazione e sensibilizzazione sui temi del digitale nel Sud Italia “Il Digitale è di strada”, con 11 tappe nei comuni delle Regioni Campania, Puglia, Basilicata, Calabria e Puglia, ideato dal collega Alessandro Ghiani, e che ha visto la RAI quale media partner.  

RELATRICE NEI SEGUENTI CONVEGNI:

  • 23 marzo 2017: primo convegno nazionale “Le professioni del futuro” (Intribe Trend e Asseprim) presso Confcommercio Milano,sulla nuova figura dell’Avvocato 4.0;
  • 12 e 13 settembre 2019: “InsertLaw to Continue”, su innovazione, diritto e tecnologia organizzato dall’Università Federico II di Napoli, Prof. Francesco Romano;
  • 21 settembre 2019: “Heroes in Maratea”,sul tema della NetReputation con Massimo Lucidi;
  • 5 novembre 2019: “Adolescenti lontani dai pericoli metropolitani”, sui temi dei rischi di Internet e cyberbullismo presso la Biblioteca “Nilde Iotti” della Camera dei Deputati, con il Presidente dell’Associazione “Mai più solo”, Vincenzo de Feo, e l’On.le Massimiliano Capitanio, primo firmatario legge sull’educazione civica;
  • 10 dicembre 2019: “Digital Day”, sulle problematiche europee dell’applicazione del diritto all’oblio presso sede Gruppo ICCREA di Roma;
  • 12 dicembre 2019: “Partecipare alla sicurezza. La sicurezza partecipata” presso la Pontificia Università Urbaniana di Roma sul tema dei danni reputazionali, anche on line, delle aziende pubbliche e private colpite da data breaches

LINK PROFILO LINKEDIN:
https://www.linkedin.com/in/piera-di-stefano/