Descripción
Este recurso es una lista curada de casos relacionados con el uso de la inteligencia artificial que han sido polémicos en la implementación, especialmente por un tratamiento poco ético de los datos involucrados y/o los objetivos del proyecto.
La lista de casos se articula en torno a tres temas clásicos: justicia (en el sentido de imparcialidad), seguridad y privacidad. Cada tema tiene varios apartados dependiendo del ámbito de aplicación de cada caso, tales como salud, recursos humanos, reconocimiento de voz y facial, etc., uso de publicidad, armamento «inteligente» (las comillas son del autor de esta ficha), redes sociales o geolocalización, entre otros.
La lista termina con una serie de recursos relacionados con la inteligencia artificial responsable, la mayoría de ellos libros y artículos, entre los que podemos mencionar, por ejemplo, Algorithms of Oppression de Safiya Umoja Noble, la cual presenta que los algoritmos de búsqueda de Google (y otros) tienen un claro sesgo negativo contra las mujeres de color, por ejemplo.
Enlace al recurso
https://romanlutz.github.io/ResponsibleAI/
Ejemplo de uso
Algunos de los casos elegidos son muy representativos de los malos usos de la inteligencia artificial, en ámbitos como la selección de personal, por ejemplo. Un informe llamado Help Wanted: An examination of hiring algorithms, equity, and bias, publicado a finales de 2018 por Miranda Bogen y Aaron Rieke, recoge cómo los algoritmos utilizados en los procesos de selección tienen un sesgo importante, especialmente por la forma como se recogen los datos y se entrenan los modelos construidos para descartar o retener candidatos.
El género es una de las variables típicas que los candidatos a un lugar de trabajo incluyen en sus currículums. En sectores como la tecnología, donde el número de hombres supera con creces al de las mujeres, un algoritmo mal preparado para gestionar con esta falta de igualdad puede acabar rechazando a las mujeres porque el género es una variable que puede explicar por sí sola el histórico de las contrataciones, más allá de otras variables del currículum. Es decir, si una gran mayoría de los contratos van a parar a los hombres, un algoritmo mal diseñado podría rechazar directamente a las mujeres porque no tiene ejemplos de contratación de mujeres en un sector. Obviamente, este sesgo también funciona en la otra dirección, y alimenta el tópico de que ciertos trabajos son para las mujeres y otros para los hombres.
En el informe, los autores proporcionan ejemplos como este y los mecanismos para luchar contra ellos, y comparan diferentes herramientas utilizadas en los procesos de contratación para medir los sesgos que incluyen de una manera más o menos sutil. Por ejemplo, plataformas como LinkedIn han ajustado sus algoritmos de headhunting para intentar evitar este sesgo de género, entre otros. Los autores concluyen el informe con una serie de recomendaciones para combatir este tipo de sesgo, y para promover aspectos como la transparencia, por ejemplo, para que sea posible saber por qué un algoritmo ha decidido clasificar o puntuar a un candidato de una manera u otra.
Enlaces relacionados
Responsible AI Practices en Google: https://ai.google/responsibilities/responsible-ai-practices/
Algorithms of oppression en Wikipedia: https://en.wikipedia.org/wiki/Algorithms_of_Oppression