Nel mondo sono sempre di più le decisioni che vengono affidate alle intelligenze artificiali, dalla scrematura dei candidati a un lavoro a quella di chi può avere un mutuo. L’illusione è che possano evitare gli errori e i sottili pregiudizi che ha l’uomo, ma in realtà molti algoritmi fanno le stesse discriminazioni, di razza, di genere o di ceto sociale, della controparte umana, con l’aggravante, hanno denunciato gli esperti in un recente congresso organizzato dal Mit (Massachusetts Institute of Technology) di Boston, che le compagnie che li usano non sembrano preoccuparsi del problema. Premettiamo subito: nessun coinvolgimento di Google, il cui algoritmo che regola il motore di ricerca è tra i più famosi e in parte misteriosi del mondo.

La questione è così delicata che i partecipanti al meeting, insieme all’Unione americana per le libertà civili hanno deciso di creare la AI Now initiative, proprio per andare a caccia delle intelligenze artificiali razziste. «Il pregiudizio può esistere in ogni tipo di servizi e prodotti – spiega alla rivista del Mit Kate Crawford, uno dei fondatori -. Siamo ancora agli albori della comprensione del fenomeno, ma più investighiamo più ne troviamo». Alcuni esempi di razzismo nelle intelligenze artificiali sono stati già svelati da studi scientifici e secondo i ricercatori non si tratta evidentemente di casi isolati.

L’università di Bath, ad esempio, ha dimostrato su Science che gli algoritmi che si utilizzano per interpretare il linguaggio hanno acquisito molti dei bias verificati nell’uomo dagli esperimenti di psicologia. Le parole femmina e donna ad esempio vengono associate maggiormente a occupazioni umanistiche e legate alla cura della casa, mentre i corrispondenti maschili a professioni matematiche. Se a questi programmi viene chiesto di selezionare dei curricula per un lavoro, ad esempio, sarà più probabile che scelgano quelli di maschi per un posto da ingegnere.

Se si pensa che negli Stati Uniti stanno comparendo persino algoritmi che valutano i professori o che aiutano i giudici a stabilire chi può avere la libertà sulla parola, sottolineano gli esperti, i rischi che i pregiudizi umani vengano ripetuti o addirittura enfatizzati sono molto alti. «Il problema – sottolinea – Cathy Ò Neal, matematica e autrice del libro Weapon of math destruction, letteralmente Armi di distruzione matematica – è che gli attori fondamentali, incluse le compagnie che sviluppano e applicano gli algoritmi e gli enti regolatori, non mostrano interesse nel monitorare e limitare il fenomeno».

Come giudichi l'articolo?
[Totale: 1 Media: 5]

LASCIA UN COMMENTO

Inserisci il commento!
Il tuo nome