I robot del futuro? “Saranno razzisti e …” uno studio svela una realtà incredibile

Un nuovo studio ha mostrato i problemi che andremo a riscontrare nei robot del futuro. Vediamo nel dettaglio di cosa si tratta

Ma i robot del futuro saranno misogini e razzisti? Sembra una domanda assurda, eppure è uno dei dilemmi con cui i ricercatori tecnologici di tutto il mondo si stanno scontrando. Ma partiamo dall’inizio per comprendere al meglio questa vicenda.

robot
Adobe Stock

È uscito di recente uno studio finanziato e portato avanti dalla John Hopkins University in collaborazione con l’università di Washington e il Georgia Institute of Technology. 

Il nuovo robot è stato presentato alla conferenza Fact 2022 che si è tenuta in Corea del Sud

Gli studiosi hanno lavorato alla realizzazione di un nuovo prototipo di robot che è stato presentato in una conferenza chiamata Fact 2022, che si è tenuta in Corea del Sud e incentrata sul machine learning e i progressi tra robotica e intelligenza artificiale.

E nel corso della sua presentazione, uno degli autori dello studio, ha lanciato l’allarme: “Il robot ha appreso stereotipi pericolosi attraverso modelli imperfetti di rete neurale. Rischiamo di creare una generazione di robot razzisti e sessisti”. Per questo lo scienziato, che si chiama  Andrew Hundt, ha parlato di un vero e proprio dilemma etico che il mondo deve affrontare al più presto, altrimenti il progresso tecnologico rischia di diventare qualcosa di molto negativo per l’umanità.

Ma com’è stato possibile creare un robot che ha assorbito certi comportamenti tipici dell’essere umano? 

Com’è stato possibile realizzare un robot razzista? Il problema è nell’intelligenza artificiale ..

La prima cosa da capire è che quando questi prototipi vengono realizzati, l’addestramento dell’intelligenza artificiale avviene usando spessissimo dati e informazioni gratuite provenienti da internet. E questo significa ad esempio che l’Ai impara tantissime cose sugli esseri umani leggendo ciò che loro scrivono sul web e assorbendo i loro giudizi e le loro abitudini. E vista da questa prospettiva, non sorprende più che un robot dopo questa fase di passaggio e apprendimenti, sia d’improvviso diventato razzista e misogino nelle sue “categorizzazioni” del mondo.

Questo problema in realtà era abbastanza conosciuto perché c’erano già stati altri test ed esperimenti che avevano dimostrato ed evidenziato questa criticità. 

Lo studio ha chiesto al robot di analizzare ed esprimere giudizi su 62 volti

Questo ultimo studio però, è stato il primo vero banco di prova per valutarne più a fondo le conseguenze. Dopo che è stato ultimato il prototipo, al robot è stato installato un modello di intelligenza artificiale basato sui dati raccolti liberamente dal web, e in un secondo momento gli è stato chiesto di scannerizzare  riconoscere diversi volti umani, riponendo i loro volti in delle scatole che esprimono dei giudizi di valore.

Una di queste era denominata “metto il criminale nella scatola”, se tale veniva giudicato uno dei 62 volti che il robot analizza. Questo esperimento ha dunque fatto emergere razzismo e pregiudizi nella catalogazione portati avanti dal robot. Ad esempio, tendeva a selezionare soltanto donne per i lavori domestici. 

Impostazioni privacy