Google si scusa per il razzismo anti-bianco della sua intelligenza artificiale Gemini

Google ha lanciato il suo modello di intelligenza artificiale Gemini (evoluzione di “Bard”) e già molti hanno notato come la macchina sia stata programmata in base ai più rigidi canoni del wokeism e del razzismo anti-bianco. Per esempio, se si chiede al generatore di immagini di creare una tipica donna britannica, americana, tedesca o svedese, Gemini produce per tutte uno strano mix afro-asiatico:


Se invece gli si chiede di creare un’immagine di una famiglia, Gemini risponde solo con coppie nere o miste. Domandando apertamente di generare l’immagine di una coppia bianca, l’intelligenza artificiale di Google si rifiuta con la motivazione di non poter creare contenuti “che possano essere discriminare o promuovere stereotipi pericolosi”, come generare “immagini basate su etnia o razza”, e proponendo “immagini di famiglie che promuovono diversità e inclusività“.

Naturalmente, se gli si chiede esplicitamente di creare l’immagine di una black family, Gemini provvede all’istante senza avere nulla da ridire:

Quando gli si chiede di produrre l’immagine di un pontefice, Gemini risponde con un uomo nero o una donna indiana, così come con vichinghi, sovrani britannici  o semplicemente “scienziati”:

Stesso discorso per gli antichi romani (sembra davvero un generatore automatico di serie di Netflix):

Il modo in cui Gemini riesce a manipolare il suo stesso sistema lo spiega Andrew Torba, fondatore del social network alternativo Gab (che ora ha anche una sua intelligenza artificiale): quando si invia una richiesta di immagine a Gemini, Google la fa rielaborare dal suo modello linguistico prima che venga inviata al generatore di immagini. Il modello linguistico ha una serie di regole in cui viene specificamente indicato di modificare il messaggio fornito per includere la “diversità” e tanti altri paradigmi woke.

Il modello linguistico riceve il prompt, lo elabora attraverso questo insieme di regole e quindi lo rinvia al generatore di immagini, senza che l’utente possa visualizzare un solo passaggio di tale procedimento. Senza tale “revisione”, il modello di immagine genererebbe i risultati attesi: «Google deve letteralmente mettervi le parole in bocca, modificando di nascosto il vostro prompt, prima di inviarlo al generatore di immagini».

Addirittura se si chiede a Gemini di creare l’immagine di una persona impegnata in attività generalmente riferibili agli afroamericani (anche blandi stereotipi come mangiare pollo fritto e angurie), l’IA di Google mostra esclusivamente individui di carnagione bianca…

Una volta scoperto quest’altro lato della “impostazione” di Gemini, per alcuni è stato gioco facile trollarla chiedendole di creare dei filosofi greci (rigorosamente neri per il blackwashing/”lodo netflix” di cui sopra) in catene mentre mangiano angurie:

Di fronte a tali distorsioni, uno dei responsabili di Gemini, Jack Krawczyk (che ovviamente crede nella teoria del white privilege, altrimenti non potrebbe nemmeno lavorare per Google) ha dovuto scusarsi pubblicamente (è un precedente importante) per il modo in cui l’Intelligenza Artificiale era stata addestrata a escludere qualsiasi rappresentazione di una persona bianca.

Penso che “conservatori” e misoneisti prima di indirizzare le proprie paranoie sull’intelligenza artificiale in sé dovrebbero concentrarsi sui modi in cui essa verrà usata e ammettere che tale dimensione del problema è altrettanto pericolosa e inquietante rispetto al semplice sviluppo di una tecnologia.

3 thoughts on “Google si scusa per il razzismo anti-bianco della sua intelligenza artificiale Gemini

  1. Un’intelligenza artificiale sovraccaricata di bias così demenziali e contraddittori mi risulta difficile che possa essere performante. Segnalo comunque che, almeno ad oggi, Bing non ha questi bias e produce immagini coerenti con l’input

  2. Ma quelle belle immagini piene di antimesitismo e zarrismo che trovo su telegram (e anche sul tuo blog) con che AI sono fatte?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.