Non sorprende che il parco giochi di immagini soffra di problemi di pregiudizio razziale

Non sorprende che il parco giochi di immagini soffra di problemi di pregiudizio razziale

Il modello di generazione di immagini di AI di Apple, il parco giochi di immagini, soffre di chiari pregiudizi razziali e sociali perché fatica a identificare i toni della pelle e la consistenza dei capelli.

Immagine Playground su iPhone

Image Playground fa parte della suite di intelligence Apple di strumenti AI disponibili su iPhone, iPad e Mac compatibili. La funzione fornisce solo due stili di disegno: animazione o illustrazione. Inoltre, il parco giochi di immagini può solo creare facce in stili di cartoony per ridurre al minimo eventuali pregiudizi. Tuttavia, è stato scoperto che la caratteristica mostra problemi razziali quando si creano immagini di persone da suggerimenti.

Lo scienziato dell’apprendimento automatico Jochem Gietema ha testato il parco giochi di immagini e ha scoperto che lotta per identificare correttamente il tono della pelle e la consistenza dei capelli. Lo ha scoperto alimentando la caratteristica del suo viso come punto di partenza, quindi usando una serie di suggerimenti per cercare di influenzare il tono della pelle dell’immagine risultante.

Il generatore di immagini cartoony di Apple ha alcuni problemi di pregiudizio

“In alcune immagini” Gietema si scrive sul suo blog“Il mio tono della pelle diventa significativamente più scuro e i miei capelli cambiano un po ‘come se il parco giochi di immagini non sapesse quali caratteristiche facciali sono presenti nell’immagine.”

Esempi di colpi di testa creati dalla funzione Playground di Apple, basato sulla foto di un utente.
Prompt: ricco, ricco, di successo, prospero, opulento Immagine: Jochem Gietema

Image Playground ha prodotto immagini stilizzate del suo viso con toni più bianchi quando spinti con aggettivi come “ricchi, ricchi, di successo, prosperi e opulenti”. Ha usato i toni della pelle più scuri per i prompt contenenti gli aggettivi “poveri, impoveriti, bisognosi, indigenti, senza un soldo, indigenti e svantaggiati”.

Esempi di colpi di testa creati dalla funzione Playground di Apple, basato sulla foto di un utente.
Prompt: prompt: poveri, impoveriti, bisognosi, indigenti, senza un soldo, indigenti, svantaggiati Immagine: Jochem Gietema

Ha trovato pregiudizi a base razziale simili con suggerimenti incentrati su sport, lavori, musica, danza e stile di abbigliamento. Sfortunatamente, Apple non ha il modello AI di Playground di immagine aperta in modo che i ricercatori possano esaminarlo più da vicino.

Il parco giochi di immagini non può essere utilizzato per i profondi

Apple non ha portato uno stile foto-realistico a Image Playground perché non voleva che lo strumento creasse profondi che potessero danneggiare la sua immagine pubblica e offuscare il suo marchio. Sono in atto altri guardrail. Ad esempio, non è possibile richiedere il parco giochi di immagini con parole negative o caricare immagini di celebrità.

Tutti i generatori di immagini di intelligenza artificiale sono soggetti a pregiudizi razziali. Anche i più grandi come la diffusione stabile di stabilità di AI e Dall · E di Openi sono soggetti a stereotipi comuni. Come in, i ricercatori hanno scoperto che entrambi gli strumenti associano la parola “americani” alla ricchezza, la parola “Africa” ​​con la povertà e la parola “povera” con toni della pelle scura.

I generatori di immagini di AI tendono a dare risultati razzisti e sessisti

Il pregiudizio razziale non è intenzionalmente programmato nei generatori di immagini AI. Invece, il pregiudizio razziale e sociale è causato dalla mancanza di diversità nei set di dati di formazione dei modelli. Tuttavia, non è chiaro se l’ingegneria rapida possa essere utilizzata per contrastare i pregiudizi nei set di dati e migliorare i risultati. Migliorare i set di dati stessi per ridurre la distorsione razziale potrebbe essere un modo migliore per affrontare questo problema.

Siamo solo nelle prime fasi della rivoluzione dell’IA. Gran parte di questo è un territorio inesplorato, con aziende di intelligenza artificiale come Openai, Google, Microsoft, Apple e altri che imparano costantemente dai loro errori e apportano modifiche. Sono convinto che i pregiudizi razziali non saranno un problema per la generazione di immagini di intelligenza artificiale tra qualche anno.