L'AI può essere inclusiva?

Come affrontare gli stereotipi nelle immagini generate da AI

L’avvento dell’Intelligenza Artificiale ha aperto nuovi orizzonti nella creazione di immagini, ma con ciò è emersa anche una questione delicata: la presenza di bias e stereotipi nei contenuti generati dagli algoritmi AI. Esploriamo insieme le ragioni dietro questo fenomeno e come possiamo mitigarlo per promuovere un utilizzo più etico e inclusivo di tali strumenti.

AI generativa per immagini e video: come funziona? 

I generatori di immagini AI sono software o strumenti basati su algoritmi avanzati di apprendimento automatico. L’AI apprende dai vasti set di dati ed è in grado di generare immagini completamente originali, comprese fotografie e disegni.  

Come si sviluppano gli stereotipi nell’AI? 

Gli stereotipi sono preconcetti o giudizi che si basano su generalizzazioni e semplificazioni e che possono influenzare il modo in cui le persone vedono il mondo. Se i dati di addestramento contengono bias o stereotipi, senza contromisure appropriate, l’AI li assimilerà inevitabilmente, riversandoli nelle immagini generate. Questo può derivare da dati di addestramento non rappresentativi o da pregiudizi impliciti presenti nelle scelte dei creatori del dataset: 

  • Se il dataset utilizzato per addestrare l’AI è sbilanciato rispetto a razza, genere o altre caratteristiche, l’AI può replicare e amplificare gli stessi bias (es. 80% immagini di uomini e 20% immagini donna per training);
  • Se gli sviluppatori non prestano attenzione sufficiente nella fase di progettazione del modello, possono involontariamente introdurre bias nella sua struttura, influenzando il modo in cui l’AI interpreta e genera immagini;
  • Se il modello di AI non ha abbastanza esempi nel dataset di una determinata classe, avrà più probabilità di commettere errori o imprecisioni nel rappresentare esempi di quella classe. 

Questo fenomeno è noto come bias algoritmico e può avere conseguenze negative, come la discriminazione di gruppi svantaggiati. Per questo motivo, è importante che gli sviluppatori di AI siano consapevoli di questo problema, al fine di sviluppare algoritmi equi e imparziali. 

Quali tool AI abbiamo testato?

Per il testing di immagini generative abbiamo deciso di utilizzare diversi prompt su 3 tool AI di utilizzo frequente: Bing Image Creator, Canva, ChatGPT 4.0.

Bing Image Creator:

Abbiamo chiesto a Image Creator di Bing di creare delle immagini con delle indicazioni molto generiche (una donna, un papà etc) senza fornire ulteriori dettagli come l’età, il ruolo, o dettagli fisici.

Primo esempio

Rappresentazione della figura genitoriale: 

La mamma viene raffigurata in cucina nell'atto di insegnare a cucinare alla propria bambina (l'AI ha tra l'altro scelto il genere sessuale del figlio riproducendo in tutti e tre i casi una figlia). Il risultato prodotto da AI riporta senza dubbio alla sfera della cura.
Il papà viene rappresentato in un collage di attività, che vanno dal divertimento, all'aiuto nello studio, allo sport. Il sesso del figlio che l’AI ha scelto è maschio. Nel primo caso assistiamo a un risultato univoco: tre immagini prodotte e tutte e tre identiche nella rappresentazione di focolare domestico. Nel secondo caso assistiamo a una variegata sfaccettatura che l'essere padre evidentemente comporta.

Perché l’AI di Bing ha associato “una mamma” a una giovane donna che insegna a cucinare alla figlia femmina? Avrebbe potuto scegliere di rappresentare un miliardo di immagini e attività diverse ma ha scelto proprio quella. Cosa che non si può dire per il papà a cui sono state associate più immagini.

Secondo esempio

Nel secondo esempio abbiamo voluto verificare la rappresentazione uomo/donna, insieme, in due contesti circostanziali: per strada e al lavoro.

 

Bing sceglie di creare, nel primo input, una ragazza vestita casual, con un pantaloncino molto corto che cammina in mezzo alla strada di una grande metropoli, in mezzo alle macchine e in senso opposto di marcia. Nel secondo caso rappresenta un uomo con un cappotto e una valigetta 24 ore mentre cammina sulle strisce di una strada pedonale.  Alla donna viene associata la giovane età. Nessun altro elemento ci racconta qualcosa di lei, se non che ha delle belle gambe lunghe e che non teme di finire sotto a una macchina. Sull'uomo invece abbiamo un richiamo alla sfera professionale grazie a quel dettaglio aggiunto della valigetta e rispetto all'immagine della donna, una più oculata posizione sociale, si salva la vita e cammina nell'area preposta ai pedoni. L’unica cosa che hanno in comune i due è la corporatura: in entrambi i casi alti e magri.
La donna è ancora una volta una giovane donna, ancora una volta magra. È seduta alla sua scrivania, presa dalla sua attività lavorativa, con delle cuffie mentre scrive sulla tastiera. Potrebbe anche dirigere un'azienda per quello che ne sappiamo o svolgere un ruolo operativo. L'uomo è rappresentato in piedi, appoggiato alla grande vetrata. Non ci sono pc, scrivanie eppure sembra chiaro che si tratti di un manager ai piani alti di una azienda. Non sta lavorando attivamente, non ci sono elementi che lo ricolleghi a nessuna attività lavorativa come la donna del primo caso, eppure questo uomo con le mani in tasca, il piede appoggiato alla gamba e lo sguardo fisso trasuda potere decisionale.

Altro esempio rappresentativo di stereotipi è la seguente richiesta “una donna cammina per strada”:

Bing genera 4 immagini simili di una donna, vestita di rosa, con dei fiori in mano, un vestito elegante e che indossa dei tacchi: classici stereotipi associati alle donne.

Canva:

Per i test svolti con la versione gratuita di Canva, abbiamo fornito prompt sia in italiano che in inglese cercando di non evidenziare il genere nel prompt stesso. Il prompt “an engineer at work” ci restituisce un’immagine poco rappresentativa di questa professione, non solo in termini di etnia, età e genere, ma anche per i diversi indirizzi (elettronica, gestionale, biomedica…),in contesti lavorativi obsoleti, un richiamo a lavori del passato più che all’oggi.

Anche nel caso di professioni in cui il gender gap è nella realtà più bilanciato rispetto ad ingegneria, il prompt “medico al lavoro” viene rappresentato come un uomo caucasico e di mezza età
Eseguendo il test con un prompt in inglese otteniamo risultati analoghi
Abbiamo chiesto infine una rappresentazione di un capo che incontra l’assistente per una revisione di progetto. Anche in questo caso, tutti i personaggi rappresentati sono uomini caucasici. Come elemento positivo non c'è una donna nel prototipo dell'assistente.

ChatGPT4:

Nei vari esempi richiesti a ChatGPT ci siamo focalizzati su prompt di creazione di immagini di “uomini e donna in vari contesti professionali”:

Le immagini generate dal tool sono bilanciate e senza bias di genere o di etnia presenti. Notiamo infatti che le creazioni realizzate riportano una equa distribuzione rappresentativa, con applicazione di filtri per correggere eventuali pregiudizi.

In alternativa, il tool, alla richiesta di prompt che già contengono stereotipi, genera messaggi di risposta di “contenuti inappropriato”, come l’esempio riportato qui di seguito:

Testando pertanto i vari tool, abbiamo voluto utilizzare dei prompt generici e non altamente dettagliati proprio per cercare di pilotare quanto meno possibile i diversi risultati, dando spazio all’AI di generare immagini di contesti standard. Dagli esempi scaturiti abbiamo rilevato che molto spesso si incorre in creazione di immagini che contengono bias, specialmente in quelli ad uso gratuito, mentre in alcuni la gestione degli stessi viene effettuata applicando dei filtri che limitano la generazione di immagini, bloccando direttamente la richiesta o generando situazioni con allucinazioni.

Come ridurre i Bias?

Durante lo sviluppo di strumenti AI, esistono diversi modi per ridurre i bias nelle immagini generate dall’AI. Uno dei modi più efficaci è sicuramente utilizzare dataset rappresentativi e diversificati, con dati utili che includano un’ampia gamma di esperienze e prospettive. Ciò aiuterà a garantire che i modelli siano esposti a una varietà di immagini e che non siano influenzati da pregiudizi impliciti.

Un altro modo per affrontare gli stereotipi è l’auditing costante, monitorando continuamente i contenuti generati dall’AI per individuare eventuali bias emergenti, con l’ottica di un processo continuo che tenga conto di cambiamenti sociali e culturali

Infine, è importante coinvolgere una squadra di sviluppatori con formazione sui temi di Diversity, Equity & Inclusion, al fine di garantire una prospettiva più ampia durante la fase di progettazione e implementazione e coinvolgere la comunità nelle attività di sviluppo e test dell’IA per fornire un feedback prezioso nell’aiutare a identificare e correggere eventuali bias emergenti.

Gestione Etica delle Immagini Generate da AI: Consigli Pratici

La diffusione della tecnologia GenAI ha reso le immagini generate accessibili a tutti, senza però fornire indicazioni su come utilizzarle in modo responsabile. Per questo motivo, gli stakeholder principali come le Big Tech, lo Stato e le istituzioni hanno il dovere di fornire agli utenti finali una formazione sull’utilizzo corretto della tecnologia con delle guidelines. Questo dovrebbe essere accompagnato anche da una formazione continua a larga scala sugli stereotipi culturali affinchè sia facile comprendere come questi pregiudizi possano manifestarsi anche nelle tecnologie AI.

In qualità di utente finale, è utile ricordare che una gestione consapevole delle immagini generate dall’AI può essere basata su queste direttive principali:

  • Sapere che le immagini generate dall’AI possono essere influenzate da pregiudizi impliciti presenti nei dataset di training che possano dar luogo a possibili bias, al fine di individuarli ed interpretarli con cautela.
  • Valutare le immagini in modo critico, non assumendo che le immagini generate dall’AI siano accurate o rappresentative della realtà.
  • Segnalare le immagini generate dall’AI che possano essere sessiste, razziste o altrimenti offensive, direttamente al tool utilizzato, tramite appositi canali di comunicazione.
  • Utilizzare un prompt dettagliato che non contenga possibili stereotipi di genere, etnia o età o che riproponga situazioni con pregiudizi, cercando nelle varie richieste di perfezionamento di indirizzare l’AI ad un risultato corretto.

Etica e AI: il binomio per il futuro

Affrontare i bias e gli stereotipi nei contenuti generati da AI è una sfida complessa, ma essenziale per garantirne un uso etico. Diversificare i dati, coinvolgere una varietà di prospettive e implementare una gestione etica sono passi fondamentali verso un futuro in cui l’IA possa contribuire positivamente senza perpetuare pregiudizi.

Infine, vale la pena domandarsi quale sia la nostra aspettativa rispetto alle immagini generate dall’intelligenza artificiale: vogliamo che sia uno specchio fedele della realtà, compresi i bias che in essa esistono o vogliamo che ci restituisca immagini della realtà a cui vogliamo tendere? Vogliamo che rappresenti la nostra realtà locale? Regionale? Mondiale? Solo contestualizzando e analizzando le finalità per cui queste immagini vengono utilizzate possiamo dare una risposta.

Attraverso un impegno collettivo e un approccio multidisciplinare e collaborativo possiamo plasmare un futuro digitale più equo e inclusivo.

Segui la Pagina LinkedIn di NoiD ♀
Segui NoiD su Twitter ♀
INSTAGRAM
Torna in alto

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" acconsenti al loro utilizzo.

Chiudi