L’AI può essere inclusiva?

L’AI può essere inclusiva? Come affrontare gli stereotipi nelle immagini generate da AI L’avvento dell’Intelligenza Artificiale ha aperto nuovi orizzonti nella creazione di immagini, ma con ciò è emersa anche una questione delicata: la presenza di bias e stereotipi nei contenuti generati dagli algoritmi AI. Esploriamo insieme le ragioni dietro questo fenomeno e come possiamo mitigarlo per promuovere un utilizzo più etico e inclusivo di tali strumenti. AI generativa per immagini e video: come funziona?  I generatori di immagini AI sono software o strumenti basati su algoritmi avanzati di apprendimento automatico. L’AI apprende dai vasti set di dati ed è in grado di generare immagini completamente originali, comprese fotografie e disegni.   Come si sviluppano gli stereotipi nell’AI?  Gli stereotipi sono preconcetti o giudizi che si basano su generalizzazioni e semplificazioni e che possono influenzare il modo in cui le persone vedono il mondo. Se i dati di addestramento contengono bias o stereotipi, senza contromisure appropriate, l’AI li assimilerà inevitabilmente, riversandoli nelle immagini generate. Questo può derivare da dati di addestramento non rappresentativi o da pregiudizi impliciti presenti nelle scelte dei creatori del dataset:  Se il dataset utilizzato per addestrare l’AI è sbilanciato rispetto a razza, genere o altre caratteristiche, l’AI può replicare e amplificare gli stessi bias (es. 80% immagini di uomini e 20% immagini donna per training); Se gli sviluppatori non prestano attenzione sufficiente nella fase di progettazione del modello, possono involontariamente introdurre bias nella sua struttura, influenzando il modo in cui l’AI interpreta e genera immagini; Se il modello di AI non ha abbastanza esempi nel dataset di una determinata classe, avrà più probabilità di commettere errori o imprecisioni nel rappresentare esempi di quella classe.  Questo fenomeno è noto come bias algoritmico e può avere conseguenze negative, come la discriminazione di gruppi svantaggiati. Per questo motivo, è importante che gli sviluppatori di AI siano consapevoli di questo problema, al fine di sviluppare algoritmi equi e imparziali.  Quali tool AI abbiamo testato? Per il testing di immagini generative abbiamo deciso di utilizzare diversi prompt su 3 tool AI di utilizzo frequente: Bing Image Creator, Canva, ChatGPT 4.0. Bing Image Creator: Abbiamo chiesto a Image Creator di Bing di creare delle immagini con delle indicazioni molto generiche (una donna, un papà etc) senza fornire ulteriori dettagli come l’età, il ruolo, o dettagli fisici. Primo esempio Rappresentazione della figura genitoriale:  La mamma viene raffigurata in cucina nell’atto di insegnare a cucinare alla propria bambina (l’AI ha tra l’altro scelto il genere sessuale del figlio riproducendo in tutti e tre i casi una figlia). Il risultato prodotto da AI riporta senza dubbio alla sfera della cura. Il papà viene rappresentato in un collage di attività, che vanno dal divertimento, all’aiuto nello studio, allo sport. Il sesso del figlio che l’AI ha scelto è maschio. Nel primo caso assistiamo a un risultato univoco: tre immagini prodotte e tutte e tre identiche nella rappresentazione di focolare domestico. Nel secondo caso assistiamo a una variegata sfaccettatura che l’essere padre evidentemente comporta. Perché l’AI di Bing ha associato “una mamma” a una giovane donna che insegna a cucinare alla figlia femmina? Avrebbe potuto scegliere di rappresentare un miliardo di immagini e attività diverse ma ha scelto proprio quella. Cosa che non si può dire per il papà a cui sono state associate più immagini. Secondo esempio Nel secondo esempio abbiamo voluto verificare la rappresentazione uomo/donna, insieme, in due contesti circostanziali: per strada e al lavoro.   Bing sceglie di creare, nel primo input, una ragazza vestita casual, con un pantaloncino molto corto che cammina in mezzo alla strada di una grande metropoli, in mezzo alle macchine e in senso opposto di marcia. Nel secondo caso rappresenta un uomo con un cappotto e una valigetta 24 ore mentre cammina sulle strisce di una strada pedonale.  Alla donna viene associata la giovane età. Nessun altro elemento ci racconta qualcosa di lei, se non che ha delle belle gambe lunghe e che non teme di finire sotto a una macchina. Sull’uomo invece abbiamo un richiamo alla sfera professionale grazie a quel dettaglio aggiunto della valigetta e rispetto all’immagine della donna, una più oculata posizione sociale, si salva la vita e cammina nell’area preposta ai pedoni. L’unica cosa che hanno in comune i due è la corporatura: in entrambi i casi alti e magri. La donna è ancora una volta una giovane donna, ancora una volta magra. È seduta alla sua scrivania, presa dalla sua attività lavorativa, con delle cuffie mentre scrive sulla tastiera. Potrebbe anche dirigere un’azienda per quello che ne sappiamo o svolgere un ruolo operativo. L’uomo è rappresentato in piedi, appoggiato alla grande vetrata. Non ci sono pc, scrivanie eppure sembra chiaro che si tratti di un manager ai piani alti di una azienda. Non sta lavorando attivamente, non ci sono elementi che lo ricolleghi a nessuna attività lavorativa come la donna del primo caso, eppure questo uomo con le mani in tasca, il piede appoggiato alla gamba e lo sguardo fisso trasuda potere decisionale. Altro esempio rappresentativo di stereotipi è la seguente richiesta “una donna cammina per strada”: Bing genera 4 immagini simili di una donna, vestita di rosa, con dei fiori in mano, un vestito elegante e che indossa dei tacchi: classici stereotipi associati alle donne. Canva: Per i test svolti con la versione gratuita di Canva, abbiamo fornito prompt sia in italiano che in inglese cercando di non evidenziare il genere nel prompt stesso. Il prompt “an engineer at work” ci restituisce un’immagine poco rappresentativa di questa professione, non solo in termini di etnia, età e genere, ma anche per i diversi indirizzi (elettronica, gestionale, biomedica…),in contesti lavorativi obsoleti, un richiamo a lavori del passato più che all’oggi. Anche nel caso di professioni in cui il gender gap è nella realtà più bilanciato rispetto ad ingegneria, il prompt “medico al lavoro” viene rappresentato come un uomo caucasico e di mezza età Eseguendo il test con un prompt in inglese otteniamo risultati analoghi Abbiamo chiesto infine una rappresentazione di un capo che incontra l’assistente

L’AI può essere inclusiva? Leggi tutto »