Descripción
En muchos proyectos de ciencia de datos se toman decisiones que pueden afectar a personas, a partir de modelos construidos con datos seguramente obtenidos previamente de otras personas. Siguiendo el ciclo de vida de los datos, es necesario plantearse ciertos aspectos éticos, cuyo cumplimiento de forma adecuada debe asegurarse. Así, resumidamente:
- Procesamiento/análisis: a partir de los datos, los modelos construidos deberían tener en cuenta los posibles sesgos en los datos para no reproducirlos. Además, el modelo no debería plantear, ya de base, ninguna premisa que pueda considerarse discriminatoria con respecto a alguno de los grupos representados en los datos.
- Almacenamiento: los datos almacenados no deberían representar ningún riesgo para los usuarios que los han generado, por lo que el sistema de almacenamiento debería asegurar el anonimato y establecer los niveles de seguridad adecuados para evitar pérdidas o filtraciones.
- Generación/captura: el más importante es el consentimiento de los usuarios, que deben estar informados de la recogida de datos. Además, el procedimiento de captura debe asegurar que recoge todos los datos y solamente los datos relevantes para el objetivo expresado, y debe ser representativo y no sobrerepresentar o discriminar a ningún grupo de usuarios involucrado.
- Implementación: una vez puesto en marcha el sistema de toma de decisiones, éste debe ser trazable, de forma que cualquier decisión tomada pueda ser contrastada contra el modelo subyacente y se identifiquen las razones que llevaron a dicha decisión, de modo que, si se detectan sesgos, estos puedan ser aislados y corregidos.
Enlace al recurso
https://datascience.recursos.uoc.edu/es/aspectos-eticos-…-tener-en-cuenta/
Ejemplo de uso
Desafortunadamente, recientemente ha habido diversos ejemplos que se pueden considerar malas prácticas por lo que respecta a los aspectos éticos mencionados anteriormente:
- El bono social al cual pueden acogerse viudas y familias numerosas para obtener un descuento en su tarifa de la luz no funcionaba correctamente, y dejaba fuera a usuarios que cumplían los requisitos. Cuando el organismo encargado de dicho bono fue requerido, se negó a publicar los detalles de los algoritmos que habían funcionado de forma errónea, lo cual no ayuda precisamente a dar una imagen de transparencia en algo que está regulado de forma oficial, tal como denunció Civio.
- Las tecnologías de reconocimiento facial están también bajo sospecha, especialmente desde casos tan graves como el del sistema de Google, que cometía errores como clasificar personas de color como «gorilas», debido a un mal funcionamiento del algoritmo de entrenamiento y los datos usados para entrenar el sistema. Por otra parte, países como China están usando masivamente técnicas de reconocimiento facial para vigilar a sus ciudadanos, y muchos otros países también lo hacen en espacios como los aeropuertos, sacrificando así la privacidad en aras de una supuesta seguridad.
- Otro ejemplo reciente es el de Facebook, que en 2018 permitió el acceso a los datos de millones de usuarios de la red social a un tercero que trabajaba para una empresa llamada Cambridge Analytics; los datos fueron usados con finalidades políticas, para ajustar los usuarios objetivo de anuncios de la campaña electoral en Estados Unidos.
Enlaces relacionados
Reconocimiento facial: https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai
Cambridge Analytica: https://www.theguardian.com/technology/2019/mar/17/the-cambridge-analytica-scandal-changed-the-world-but-it-didnt-change-facebook
Libro Ethics and Data Science: https://www.oreilly.com/library/view/ethics-and-data/9781492043898/
Herramienta para crear listas de control (checklists) de aspectos éticos: http://deon.drivendata.org/