Diletta Huyskes su intelligenza artificiale

L’intelligenza artificiale è una questione femminista? Intervista alla ricercatrice Diletta Huyskes

Ricercatrice e parte del direttivo di Privacy Network, Diletta Huyskes si occupa di studiare come l’intelligenza artificiale, se non governata, rischia di mettere in pericolo i diritti dei cittadini e, in moltissimi casi, delle cittadine di tutto il mondo

«Alle superiori mi sono appassionata a Nietzsche, mi ero messa a leggere tutti i suoi testi da sola. Studiare filosofia all’università mi spaventava, avevo paura di non trovare lavoro. Ho fatto un anno a lingue, ma poi ho cambiato idea», racconta Diletta Huyskes, ricercatrice ed Head of Advocacy & Policy dell’ONG Privacy Network.

È proprio partendo da Nietzsche e dai filosofi che l’hanno ripreso negli anni Settanta che durante l’università Huyskes unisce la sua passione per la filosofia all’impatto della tecnologia sulla società.

Da lì poi ho scoperto un ampio gruppo di studiose femministe come Rosi Braidotti e Donna Haraway che ancora oggi ispirano la mia ricerca,

spiega la dottoranda riferendosi alle teoriche del cyberfemminismo, una corrente di pensiero che prevede il superamento della separazione tra genere maschile e femminile, tra l’umano e il meccanico e altri binarismi per combattere le discriminazioni che vengono generate, messe in atto o amplificate dalla tecnologia.

Diletta Huyskes
La ricercatrice Diletta Huyskes

«Negli anni ho sviluppato un grande interesse pratico e mi sono trasferita a studiare nei Paesi Bassi, dove la filosofia applicata ha molto più spazio che in Italia», aggiunge Huyskes. «Lì mi sono concentrata sullo studio dei bias di genere e, in particolare, in che modo il Regolamento europeo in materia di trattamento dei dati personali (GDPR) fosse uno strumento capace di difendere dai bias di genere».

Oggi Huyskes è tornata in Italia per un dottorato di ricerca in Sociologia all’Università degli Studi di Milano sul rapporto tra genere e tecnologia e sui processi automatizzati nei servizi pubblici. In parallelo, si occupa di auditing algoritmico (ovvero alla valutazione degli algoritmi in base al loro impatto, design e progettazione) e della diffusione di una cultura legata all’etica e a un uso responsabile della tecnologia insieme all’organizzazione no-profit italiana Privacy Network.

 In tutte queste occasioni, Huyskes cerca di portare un messaggio tanto semplice quando rivoluzionario:

ogni tecnologia è politica, e in quanto tale va governata

In che modo l’intelligenza artificiale discrimina le minoranze?

Uno dei paragoni più comuni che vengono fatti per descrivere gli algoritmi è quello con le “scatole nere” (black box), ovvero sistemi di cui è impossibile comprendere il funzionamento interno.

In realtà, aziende e governi cavalcano il paragone con la black box come giustificazione per non essere trasparenti. Scaricare la colpa sull’algoritmo è molto più semplice che fare chiarezza su come funzionano davvero

spiega Huyskes, che oggi si concentra infatti sullo studio delle discriminazioni causate dai processi automatizzati utilizzati dalla pubblica amministrazione.

«Avere a disposizione dati che ti identificano e che ti fanno ricadere in una categoria – donna, persona migrante, persona con stato socioeconomico basso, per citarne alcune – aumenta il rischio di discriminazione. Ai modelli algoritmici manca la discrezionalità umana, il loro compito è di cercare correlazioni», precisa la ricercatrice.

Queste categorie possono essere utilizzate contro di te, per negarti diritti. Non è raro, infatti, che alle donne non vengano segnalate solo alcune offerte di lavoro o che alle persone migranti venga negato l’accesso in base ai dati sulla loro provenienza,

spiega Huyskes, secondo cui queste discriminazioni sono specialmente significative quando vengono messe in atto dalla pubblica amministrazione.

Discriminare è sempre grave, sia nel privato che nel pubblico, ma la scala su cui agiscono i governi è molto più grande. In più, il settore pubblico dovrebbe generare fiducia nei cittadini e nelle cittadine, non il contrario,

aggiunge la ricercatrice.

Con l’Intelligenza Artificiale conviene giocare d’anticipo

Per intervenire in questa sfera, Huyskes e gli altri membri di Privacy Network organizzano campagne di sensibilizzazione nei confronti sia della società civile che delle istituzioni e partecipano attivamente alle discussioni in materia di intelligenza artificiale. Nel caso del Regolamento europeo sull’AI, i membri dell’ONG hanno infatti partecipato a un’audizione del parlamento italiano in cui hanno analizzato il documento ed espresso dubbi e proposte di miglioramento.

Dal 2021 lavoriamo anche all’Osservatorio Amministrazione Automatizzata, un progetto che vuole creare un dibattito pubblico sull’AI nei servizi pubblici

spiega Huyskes, secondo cui però le difficoltà non mancano. Alla base dell’osservatorio, infatti, esiste un grande lavoro di ricerca e analisi delle informazioni che si scontra periodicamente con l’indifferenza delle amministrazioni pubbliche, che non rispondono alle richieste di accesso ai dati o rispondono in tempi lunghissimi. «Hanno l’obbligo di rispondere entro trenta giorni, ma non si tratta di un processo controllato e garantito: manca trasparenza e collaborazione», commenta la ricercatrice.

Avremmo voluto che il nostro paese fornisse uno strumento come quello che stiamo costruendo. Il senso dell’Osservatorio è anche questo: lo stiamo facendo noi, perché voi non avete intenzione di farlo.

Al lavoro di mappatura dei sistemi esistenti, Huyskes e i membri dell’ONG assoceranno a breve una campagna di sensibilizzazione sul tema per spingere aziende, enti e istituiti di ricerca a creare un ecosistema che si occupi di AI in Italia ad alto livello.

«In alcuni paesi europei, come il Belgio, ecosistemi di questo tipo esistono già ed esiste anche una consapevolezza sull’impatto dell’intelligenza artificiale sui diritti umani che in Italia non esiste ancora. È un tassello culturale che ci manca», spiega Huyskes, che conclude: «In Olanda, alcuni scandali hanno portato alla creazione di programmi di valutazione dell’impatto dell’AI molto seri.

In Italia non dovremmo aspettare uno scandalo, ma giocare d’anticipo

Riproduzione riservata