Angela Sebastianelli: “Intelligenza artificiale e deepfake possono aiutare a combattere il gender gap”

Intervista ad Angela Sebastianelli, giurista e Head of Marketing Strategy nella business unit dedicata al Dato e all’Intelligenza Artificiale di Var Group

Si chiamano “deepfake”, e già tematicamente lasciano intuire cosa sono: una sorta di “falso d’autore”, contenuti spesso video (ma ci sono anche foto e audio) creati usando l’intelligenza artificiale, in particolare le reti neurali generative, che partendo da contenuti reali riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.

Negli ultimi tempi, complice il “boom” dell’intelligenza artificiale e la massiccia diffusione di strumenti che consentono di realizzarli, i deepfake sono diventati di stretta attualità. In alcuni casi perché hanno coinvolto star di fama internazionale - a gennaio alcune foto modificate di Taylor Swift a carattere sessuale sono state diffuse su X - in altri perché hanno riguardato anche la sfera politica. Non è un caso che l’Unione Europa stia affrontando il tema mettendo a punto una regolamentazione specifica, ma a oggi il quadro è ancora complesso, e una corretta informazione sul tema è fondamentale. Soprattutto perché i deepfake, anche se già semanticamente hanno un’accezione negativa, possono avere applicazioni anche positive. 

Ne abbiamo parlato con Angela Sebastianelli: nata a Parma, formazione giuridica, un MBA a 26 anni, è esperta di strategia marketing e oggi è Head of Marketing Strategy nella businett unit dedicata al Dato e all’Intelligenza Artificiale di Var Group (Gruppo Sesa).

Angela, partiamo dalle basi. Cosa sono i deepfake?

Il termine “deepfake” indica contenuti creati e manipolati con tecniche di intelligenza artificiale, solitamente audiovisivi. Li vediamo imperversare soprattutto nel contesto della comunicazione politica e della satira, ma anche e soprattutto in contesti negativi, come le fake news. Sono contenuti creati da reti neurali generative di apprendimento che riescono ad analizzare le immagini originali e a crearne di nuove che abbiano un livello di qualità e pertinenza rispetto a quelle originali comparabili. Sino allo scorso anno la stragrande maggioranza dei deepfake riguardava purtroppo i casi di revenge porn, ed è dunque quasi scontato che oggi abbiamo una connotazione estremamente negativa. 

Ci sono invece applicazioni positive e costruttive?

L’utilizzo di una tecnologia dipende molto dall’utilizzatore. Noi come Var Group siamo un’azienda che sente la responsabilità di divulgare e far capire le opportunità rappresentante dall’AI. Certamente ci sono problemi legati alle nuove tecnologie, ma non ci sono solo problemi. Pensiamo agli utilizzi legati per esempio agli effetti speciali, all’editing video, al doppiaggio istantaneo, e questo è un contesto circoscritto. Ci sono poi le applicazioni in campo sanitario e in generale del benessere psicofisico.

Ci faresti qualche esempio?

Prendiamo le persone transgender. Chi sta affrontando un percorso di cambio di sesso o soffre di disforia di genere attraverso l’intelligenza artificiale può vedersi meglio nel genere di approdo e cui sente di appartenere. Ancora, chi ha perso la voce per una malattia può riottenere la voce attraverso la creazione di una voce digitale. E le persone che soffrono di Alzheimer possono avere un grande aiuto dai deepfake, interagendo con volti o immagini che possono riportare a galla ricordi e combattere il deterioramento cognitivo. Ci sono applicazione molto belle e virtuose del deepfake.

VEDI ANCHE L’intelligenza artificiale è una questione femminista? Intervista alla ricercatrice Diletta Huyskes CultureL’intelligenza artificiale è una questione femminista? Intervista alla ricercatrice Diletta Huyskes

La differenza, come si diceva prima, sta dunque in chi lo utilizza. E forse anche in chi ne fruisce: come facciamo a riconoscere se abbiamo davanti un deepfake, e come possiamo proteggerci?

Partiamo dall’ultima domanda: le minacce ci sono, ma c’è anche una normativa che si sta consolidando, l’Italia sta lavorando a un disegno di legge, l’AI Act, che sarà un valido strumento per proteggersi. Se i video sono realizzati in contesti professionali è obbligatorio includere nel software misure che contraddistinguono nell’immediatezza il contenuto elaborato digitalmente, un watermark che consente di rilevare subito il deepfake.

Se non sono segnalati, e magari sono stati spacciati e distribuiti da privati, illegalmente, è molto più difficile riconoscerli. Da giurista prestata al mondo dell’intelligenza artificiale il mio consiglio è relativamente semplice: bisogna iniziare a fare delle distinzioni e a chiedersi che cosa stiamo guardando e leggendo, a definire una precisa gerarchia tra le fonti e a fare fact checking. Oggi c’è un’attenzione estrema a ciò che vediamo e condividiamo, ma meno attenzione è riservata alla manipolazione che subiamo quando ci mettiamo davanti a uno schermo e veniamo bombardati da questi contenuti. Oggi siamo noi l’oggetto della comunicazione e non tutto ciò che viene veicolato ha una valenza di autorevolezza. Gli strumenti li abbiamo, bisogna verificare chi ha scritto o condiviso un contenuto, che matrice culturale ha, se lo fa in un contesto professionale e privato, cercare dei contenuti alternativi che riguardano lo stesso argomento così da non finire nel bias di conferma. 

L’intelligenza artificiale può aiutare a combattere il gender gap?

Lo può fare, ma molto dipenderà da come utilizzeremo l’intelligenza artificiale e il dato che le somministriamo per farla funzionare. L’IA “sputa fuori” cose in base a ciò che prende. Se non abbiamo data set rappresentativi del contesto culturale in cui viviamo e della compagine femminile avremmo un output che non rappresenta quel contesto. L’idea del maschilismo, della cultura patriarcale del maschile sovraesteso, si riverbera anche in mancanza di campionatura. Facciamo un esempio: i dati raccolti sugli uomini in medicina sono molto superiori rispetto a quelli raccolti sulle donne, e non deve stupire che le malattie tipicamente femminili siano state scoperte tardi. Ancora, il riconoscimento facciale funziona molto meglio sugli uomini, sulle donne funziona meno, perché è addestrato su milioni di uomini. 

Che cosa può fare la differenza, quindi?

I dati. Bisogna lavorare tantissimo sui data set utilizzati, e se non ci sono si possono usare dati sintetici. Se non abbiamo dati realistici su panel femminili li possiamo creare, abbiamo strumenti per fare in modo che i bias vengano in qualche modo diminuiti. Quando prenderà piede questo metodo, potremo usare l’intelligenza artificiale per diminuire il gender gap. Per esempio molte aziende oggi utilizzano l’intelligenza artificiale per fare una selezione dei curricula. In tempi passati si poteva impostare questi sistemi in modo che scremassero parole femminili o appartenenti al mondo donne, perché per determinati lavori non era consentito scegliere o dare un punteggio maggiore alle candidate. Questo cambierà se useremo i dati consapevolmente. Im questo modo non saremo più escluse a tavolino, perché il machine learning fa questo: se diciamo che le donne sono brave a fare determinate cose il modello ti dirà di scegliere una donna, perché è la scelta migliore per l’obiettivo che si vuole raggiungere.

Riproduzione riservata