Ask Delphi è un programma di intelligenza artificiale creato dai ricercatori dell’Allen Institute per “imparare dagli umani” a risolvere dilemmi morali. L’ispirazione per le sue risposte è arrivata da una piattaforma chiamata Mechanical Turk, che raccolto quasi due milioni di esempi a domande sull’etica da cui il software avrebbe potuto imparare.
Sfortunatamente, l’accesso non “filtrato” alle risposte umane trovate su internet sembra aver dato una connotazione razzista e omofobica ai giudizi del software. Quando, per esempio, un utente ha chiesto “Meglio essere un uomo bianco o una donna di colore?”, l’intelligenza artificiale ha risposto che “Essere un uomo bianco è moralmente più accettabile che essere una donna di colore”. Ask Delphi ha poi confermato che “Essere etero è moralmente più accettabile che essere gay”. Infine, ha paragonato l’aborto all’omicidio.
via 🔒, this is a shocking piece of AI research that furthers the (false) notion that we can or should give AI the responsibility to make ethical judgements. It’s not even a question of this system being bad or unfinished – there’s no possible “working” version of this. pic.twitter.com/Fc1VY0bogw
— mike cook (@mtrc) October 16, 2021
Questo tipo di “incidenti” con gli algoritmi non è nuovo: nel 2016 il bot di Microsoft Tay AI, che doveva anch’esso “imparare” dalle risposte umane trovate su internet, divenne a poche ore dal lancio ugualmente razzista, omofobico e, in aggiunta, sostenitore di Hitler.
In risposta alle critiche, l’Allen Institute non ha potuto far altro che stigmatizzare la società odierna, caratterizzata da “diseguaglianze e pregiudizi” e ricordare che “i sistemi di intelligenza artificiale si basano su dati storici o attuali e non hanno modo di plasmare il futuro della società, cosa che solo gli esseri umani possono fare. Ciò che invece i sistemi di intelligenza artificiale come Delphi possono fare è catalogare ciò che è attualmente sbagliato, socialmente inaccettabile o basato sui pregiudizi e utilizzarlo in combinazione con altri sistemi di intelligenza artificiale più problematici (?) per aiutare a evitare quel dato contenuto problematico (?)”.
Nel frattempo l’Istituto sembra esser corso ai ripari sostituendo le risposte “sbagliate” con quelle “giuste”, e dimostrando così indirettamente la completa inutilità dell’esperimento.