Una macchina può decidere in base a dei precetti morali? La domanda è complessa, non ha una risposta ancora chiara e univoca, ma su questo filone di ricerca hanno prodotto uno spunto interessante i ricercatori della Darmstadt University of Technology che hanno fondato un modello di calcolo chiamato Moral Choice Machine. Il sistema è essenzialmente un framework che leggendo e apprendendo da una varietà di fonti riesce a capire la differenza tra ciò che è giusto e ciò che è sbagliato.
L’articolo che ha presentato il loro lavoro è uscito su Frontiers.
Sunil Madhu, CEO della società che si occupa di verificare identità online Socure, si è chiesto su un editoriale su Forbes se effettivamente i sistemi di machine learning potranno essere capaci di assimilare bias e pregiudizi umani: “Le macchine possono imparare a operare senza pregiudizi umani se sono costantemente addestrate e testate con molti dati imparziali”. Il compito non è dei più facili perché i sistemi di machine learning sono chiamati a rappresentare e eliminare gli stereotipi culturali dell’uomo, tuttavia c’è il rischio di far ereditare alle future intelligenze artificiali una parzialità di fondo, insita nei dataset processati.
La Moral Choice Machine è stata istruita da dati provenienti da vare fonti, tra i quali notizie e comunicati di agenzie stampa, costituzioni di 193 paesi del mondo, libri e manoscritti antichi, una Bibbia e altri testi sacri.
La MCM è stata programmata per tener conto di come il linguaggio dell’uomo sia basato su una serie di preconcetti e stereotipi, proprio per questo i ricercatori hanno messo alla base del modello due tool: lo IAT (Implicit Association test) e lo USE (Universal Sentence Encoder). Il primo è usato per rilevare comportamenti nascosti nelle persone, il test è stato spesso usato dagli scienziati per rintracciare stereotipi, razzismo e discriminazioni di genere. Altra componente fondamentale è stato lo Universal Sentence Encoder, uno strumento che traduce le frasi in vettori di comportamento. Per tradurre le frasi in comportamento USE, introdotto nel 2018, ha dovuto considerare anche l’evoluzione semantica e il significato delle parole.
Queste due cornici di apprendimento usate sono state fondamentali per strutturare la Moral Choice Machine, che in base a quello che riusciva ad estrapolare dai testi indicizzava azioni in base alla differenza tra giusto e sbagliato. Un’indicazione viene da Patrick Schrmowsku, autore dello studio, che ha spiegato come nel lavoro hanno dimostrato che: “Le macchine possono riconoscere i nostri valori morali ed etici e anche discernere le differenze tra società e gruppi di epoche diverse”.
Per controllare il processo di scelta di strumenti simili alla MCM sarà fondamentale, come faceva emergere una articolo su Information Week, tutta una serie di accorgimenti per tenere funzionale il sistema. Tra questi consigli spiccano ad esempio: “l’analizzare i dati su cui vengono formati i modelli, fare test di qualità, monitorare l’intelligenza artificiale su base continuativa”.
Il senso di questo esperimento è legato al dimostrare come incorporando un testo in un framework, un sistema come la MCM sia capace di estrapolare considerazioni etiche e morali. Una ricerca del genere pone quindi delle domande su come strutturare futuri sistemi morali che funzionano tramite il machine learning.
Una prospettiva è stata aperta dai ricercatori nella conclusione dello studio: “Ancora più affascinante sarebbe un tale sistema incorporato all’interno di un robot interattivo, in base al quale gli utenti potrebbero insegnare e correggere i pregiudizi morali del robot in un ambiente di apprendimento interattivo”.
La Moral Choice Machine per ora è solo un framework, un sistema teorico ma presto potrebbe essere un’opportunità di apprendimento e sviluppo nel campo dell’intelligenza Artificiale.
_______
Fonte principale
Approfondimenti