Descripció
Aquest recurs és una llista curada de casos relacionats amb l’ús de la intel·ligència artificial que han estat polèmics en la implementació, especialment per fer un tractament poc ètic de les dades involucrades i/o dels objectius del projecte.
La llista de casos s’articula al voltant de tres temes clàssics: justícia (en el sentit d’imparcialitat), seguretat i privacitat. Cada tema té diversos apartats en funció de l’àmbit d’aplicació de cada cas, com ara salut, recursos humans, reconeixement de veu i facial, etc., ús de la publicitat, armament «intel·ligent» (les cometes són de l’autor d’aquesta fitxa), xarxes socials o geolocalització, entre d’altres.
La llista finalitza amb un seguit de recursos relacionats amb la intel·ligència artificial responsable, la majoria d’ells llibres i articles, entre els quals destaca, per exemple, Algorithms of Oppression de Safiya Umoja Noble, la qual presenta com els algorismes de cerca de Google (i d’altres) tenen un biaix negatiu clar contra les dones de color, per exemple.
Enllaç al recurs
https://romanlutz.github.io/ResponsibleAI/
Exemple d’ús
Alguns dels casos triats són molt representatius dels mals usos de la intel·ligència artificial, en àmbits com ara la selecció de personal, per exemple. Un informe anomenat Help Wanted: an examination of hiring algorithms, equity, and bias, publicat a finals de 2018 per Miranda Bogen i Aaron Rieke, recull com els algorismes usats en els processos de selecció tenen un biaix important, especialment per la forma com es recullen les dades i s’entrenen els models construïts per a descartar o retenir candidats.
El gènere és una de les típiques variables que els candidats a una plaça de feina inclouen en els currículums. En sectors com la tecnologia, on el nombre d’homes supera amb escreix el de dones, un algorisme mal preparat per a gestionar amb aquesta manca d’igualtat pot acabar rebutjant les dones perquè el gènere és una variable que pot explicar per si sola l’històric de contractacions, més enllà d’altres variables del currículum. És a dir, si una gran majoria de contractacions van a parar als homes, un algorisme mal dissenyat podria directament rebutjar les dones perquè no té exemples de contractacions de dones en un sector. Òbviament, aquest biaix també funciona en l’altra direcció, i alimenta el tòpic que certes feines són per a dones i altres per a homes.
En l’informe, els autors proporcionen exemples com aquest i els mecanismes per a lluitar-hi, i comparen diferents eines usades en els processos de contractació per a mesurar els biaixos que inclouen de forma més o menys subtil. Per exemple, plataformes com LinkedIn han ajustat els seus algorismes de headhunting per a intentar evitar aquest biaix de gènere, entre d’altres. Els autors conclouen l’informe amb un seguit de recomanacions per a lluitar contra aquest tipus de biaixos, i potenciar aspectes com la transparència, per exemple, de forma que sigui possible saber per què un algorisme ha decidit classificar o puntuar un candidat d’una manera o d’una altra.
Enllaços relacionats
Responsible AI Practices a Google: https://ai.google/responsibilities/responsible-ai-practices/
Algorithms of oppression a Wikipedia: https://en.wikipedia.org/wiki/Algorithms_of_Oppression