Tecnología excluyente: cuando las máquinas nos discriminan


Machistas, sexistas, homófobas … las máquinas inanimadas que hay detrás de la tecnología también tienen prejuicios

Un ejercicio rápido muestra que la tecnología no sólo no es infalible, sino que puede llegar a ser machista. Si buscamos en Google Imágenes la palabra CEO, no encontraremos ninguna mujer hasta la decimoséptima fotografía y sólo cinco en los 50 primeros resultados. No es la única prueba de la misoginia del popular buscador. Un estudio de la Universidad Carnegie Mellon constata que Google muestra mucho más a los hombres que a las mujeres ofertas de trabajo ejecutiva bien remunerado. La discriminación tecnológica abarca también la raza, la religión o la orientación sexual. ¿Por qué las máquinas, inanimadas e insensibles, también rechazan y marginan?

Enric Puig Punyet, filósofo e impulsor de la asociación Instituto Internet, lamenta que la discriminación del viejo mundo se haya colado a las nuevas herramientas, pero también que haya nuevas maneras de excluir. Algunas de ellas son las que emanan de los algoritmos: “Antes la discriminación se podía detectar. El problema de los algoritmos es su aura de misterio. Se nos oculta la carga ideológica que hay en el fondo “. Que los algoritmos nos marginen no es una cuestión menor. Nuestra vida diaria depende de decisiones que toman las máquinas. Ellas determinan qué ruta tomaremos, qué personas de la apli de ligar conoceremos y, incluso, si nos concederán un crédito o nos aceptará una aseguradora. “Es importante garantizar que las decisiones se tomarán sin sesgos que van contra los derechos humanos”, señala el director de la Cátedra Unesco de Privacidad de Datos en la URV, Josep Domingo Ferrer.

“Sabemos que las decisiones humanas pueden ser subjetivas, pero esperamos que las decisiones tomadas por las máquinas sean mejores, porque se basan en datos objetivos”, explica Sara Hajian, analista de datos en el centro tecnológico Eureca. Varios estudios, sin embargo, han demostrado lo contrario, y algunos investigadores han empezado a poner remedio. A Eureca, junto con investigadores de la UPF y la Universidad Técnica de Berlín, han creado un algoritmo para evitar discriminaciones en la búsqueda de personas online. La herramienta permite reorganizar los resultados de forma que se evite la marginación sin afectar la validez del ranking. En el grupo de investigación encabezado por Domingo también han diseñado algoritmos de corrección que eliminan los sesgos.

Una marginación histórica

Los algoritmos funcionan analizando mucha información, las llamadas datos de entrenamiento, a partir de las que se extraen conclusiones y las reglas que se aplicarán. El problema es que el algoritmo puede hacer cruces indeseables, tales como que los negros no vuelven los créditos. “Cuando entrenas un algoritmo para tomar decisiones, el algoritmo no sabe qué variables son políticamente correctas. Lo que hace es tratar de encontrar atajos para acertar al máximo “, explica este profesor de la URV. “La discriminación no es intencionada, pero es la consecuencia de todo el proceso”, aclara Hajian. La investigadora añade que a menudo la marginación se origina porque los datos de que beben los algoritmos reflejan una discriminación histórica. Si las discriminaciones del pasado guían las decisiones del presente, la marginación se perpetúa. “Hay que depurar los datos de entrenamiento de manera que nos aseguramos de que no se aprenderán reglas basadas en atributos sensibles”, propone Domingo. Añade que un algoritmo con sesgos, aunque sea muy eficaz, “no es legítimo”.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *