L’etica è la stella polare quando si parla di Intelligenza Artificiale | Culture
Top

L’etica è la stella polare quando si parla di Intelligenza Artificiale

E' stato il tema dominante del workshop organizzato da Careus all'Università di Siena. Un dibattito che ha mostrato le varie facce dell’etica nei differenti ambienti di ricerca.

L’etica è la stella polare quando si parla di Intelligenza Artificiale
Preroll

redazione Modifica articolo

4 Aprile 2023 - 12.33


ATF

di Irene Perli

L’Intelligenza Artificiale  può aiutare l’essere umano a risolvere i problemi e le situazioni complesse ma, proprio per questo, nascono questioni che rimangono aperte sulla praticabilità e i metodi di risoluzione. L’unica bussola orientativa è quella dell’etica: è quanto hanno convenuto tutti i relatori del Workshop Etica e Intelligenza Artificiale che, dopo una breve introduzione del Magnifico Rettore Roberto Di Pietra, hanno ampliato la questione nei relativi campi di studio e ricerca. Difficile riassumere un convegno su una tematica così complessa e scottante. Sarà fatto riassumendo, in un’estrema sintesi, i molti e qualificati interventi del lungo pomeriggio. E’ naturalmente sono graditi interventi utili per eventuali più ricche argomentazioni.

Nel primo intervento, la professoressa Giovanna Maria Dimitri, ricercatrice in presso il dipartimento di ingegneria, definisce l’Intelligenza Artificiale come “un insieme di modelli matematici (software e hardware) implementati nella pratica che simulano l’intelligenza umana, ovvero la peculiarità dell’essere umano di imparare dagli esempi.”

Non si parla quindi di creare un’intelligenza propria delle macchine, bensì di trasporre quella umana all’interno di formule e algoritmi che consentono ai sistemi artificiali di svolgere in un tempo irrisorio pratiche che l’essere umano svolgerebbe in tempi molto più lunghi. È una tecnologia pervasiva, ma ancora poco conosciuta: sorgono perciò domande a riguardo dell’applicabilità etica.

La stessa docente ha sottolineato, poi, le problematiche delle reti neurali profonde, o deep learning, di una macchina: all’interno del procedimento le reti neurali sono così elevate che è difficile anche per i ricercatori stessi spiegare le tecniche che portano ad un determinato output. È stato usato, infatti, il paragone con una black box: ciò che si trova al suo interno, quindi tutti i procedimenti intermedi, è inafferrabile. Qui risiede il primo problema etico: in che modo vengono salvati i dati che vengono utilizzati? Da chi verranno usati successivamente? Chiaramente l’AI utilizza data-set creati dagli umani, perciò è compito dei ricercatori inserire eticamente e correttamente i dati, per evitare ogni tipologia di rischio o bias cognitivo.

Il professor Oronzo Parlangeli ha ripreso la tematica dell’etica e dei bias cognitivi umani, approfondendo l’antropomorfizzazione e le questioni di genere nell’intelligenza Artificiale. Citando il paper di Xendis e Senden del 2020  nel quale si afferma che “la sfida con l’apprendimento automatico è che gli algoritmi non solo rischiano di trasmettere pregiudizi umani nel loro funzionamento, ma sono anche un veicolo per riprodurre modelli di disuguaglianza strutturalmente incisi nei dati che elaborano”, il professore ha dimostrato che il data-set dei robot antropomorfi trasuda di stereotipi di genere: dipendentemente dal livello di human likeness, i robot che hanno sembianze maschili sono reputati adatti a svolgere mansioni di responsabilità e sicurezza (più “fisiche”); al contrario, quelli con sembianze femminili sono destinati a ruoli fisicamente meno degradanti, come accudire pazienti e familiari o decorare una casa.

Parlangeli ha, inoltre, spiegato come gli assistenti vocali siano costruiti utilizzando voci femminili con atteggiamenti servizievoli. Per adesso, l’unico Voice Assistant che permette un cambio vocale da femminile a maschile è Siri, anche se il suo significato in norvegese è “bellissima donna che porta alla vittoria”. Nella discussione post intervento è stato fatto notare che essendo l’AI una nuova tecnologia si è propensi a dargli un genere per creare empatia. Quello che conta però è che non ci siano discriminazioni di genere nel processo, anche perché la robotica potrebbe aiutare ad interrompere questo circolo vizioso di stereotipi.

Discriminatoria è anche l’ottica binaria degli studi: le questioni di genere sono tutt’altro che binarie, ma ad oggi i partecipanti agli studi che non si identificano nei generi maschili e femminili sono cosi esigui che ancora non ci sono risultati sufficientemente ampi per essere pubblicati.

Il professor Stefano Guidi ha trattato l’etica illustrando due studi realizzati con robot umanoidi, per cercare di capire i vari livelli di colpa e pena per un robot che ha commesso un errore più o meno grave. In entrambi gli studi i robot umanoidi, purché meritevoli di punizione in caso di errore, vengono considerati meno responsabili rispetto ad altri attori, come i loro programmatori. Un altro elemento interessante emerso dai risultati è che la pena per un robot è maggiore se questo ha offeso o ferito un altro robot: la gravità della pena aumenta quindi se offendente e offeso appartengono alla stessa specie. Il giudizio morale è quindi rilevante, e si affina quando il robot ha un alto livello di human likeness: i robot che assomigliano di più agli esseri umani sono giudicati in modo più simile ad essi.

Il giurista Carlo Casonato, in collegamento da Trento, ha proposto il tema dell’etica proponendo alcuni diritti fondamentali tagliati a misura dell’Intelligenza Artificiale: innanzitutto è stato proposto il diritto di conoscere la natura dell’interlocutore, per poter distinguere se stiamo comunicando con una forma di AI o con un essere umano; successivamente si parla del diritto di conoscere le motivazioni di una decisione, legato al paragone con la black box precedentemente citata. I diritti più importanti, però, sono quelli legati alla non discriminazione nel modo di utilizzo dell’algoritmo, come è già accaduto in Amazon, il cui algoritmo penalizzava i curricula delle candidate, preferendo quelli delle controparti maschili, e quello dell’Human in the Loop, che sancisce che l’AI debba essere uno strumento di aiuto sostanziale per l’uomo, ma che sia quest’ultimo a prendere le definitive decisioni. In questo modo si evitano errori e discriminazioni razziali e di genere (come è già accaduto in USA).

L’accademico e informatico italiano, Massimo Marchiori, ideatore e sviluppatore dell’idea che ha dato vita a Google, ha parlato di etica sotto un altro punto di vista, introducendo l’Intelligenza Artificiale come se fosse “un tango da ballare con la società”. Riprendendo stereotipi di genere nell’algoritmo di Google Images, analizzando una ricerca da lui sviluppata sulla guida automatizzata per strade di città, e mostrando gli stereotipi di genere nelle traduzioni di Google Translate ha sottolineato che l’unica costante universale è l’uomo. Ed è l’uomo a non essere eticoinsieme alla tecnologia. Le banche dati web sono una miniera d’oro, ma queste vengono usate cercando di minimizzare le risorse costo e tempo, eludendo il controllo umano: gli output non sono quindi né etici e né rappresentativi. Non è sorprendente, quindi, che per avere risultati corretti sia necessario investire soldi e tempo per far si che gli algoritmi siano strutturati per utilizzare i dati secondo un’etica condivisa.

Fino ad oggi l’Intelligenza Artificiale  funziona bene solo negli ambiti non critici, ad esempio come ausilio per i film di fantascienza, ma quando viene utilizzata in ambiti più critici, come decisore per questioni sociali, allora vengono utilizzati gli stessi parametri e algoritmi, che, però, non sono eticamente validi in questi contesti più strutturati. Il forte ritardo sulla tabella di marcia ha penalizzato l’ultimo intervento, quello della professoressa Francesca Tolone che ha illustrato la bussola etica nel contesto educativo e formativo, più precisamente nel miglioramento delle politiche dedicate alla formazione degli adulti.

L’obiettivo della sua ricerca è quello di definire dispositori tecnologici che aiutino e supportino i processi decisionali di governi regionali e locali. Per raggiungerlo è stato costruito un repository che dal 2004 è in continuo aggiornamento e contiene norme e misure già adottate in campo educativo così che, tramite l’ausilio dell’algoritmo, sia possibile individuare le criticità di una determinata città o regione e migliorarle: chiaramente ancora una volta si parla di macchina come ausilio per l’essere umano, unica entità in grado di prendere decisioni complesse che rispecchino etica e morale.

Native

Articoli correlati