El problema de crear una APP racista por el sesgo de datos

Rodolfo Ramos Álvarez

Hay ciertos comportamientos que todos quisiéramos pensar que han quedado atrás, como los prejuicios raciales o religiosos. Pero, ¿qué pasa cuando esos prejuicios son tan sutiles que ni siquiera somos conscientes de ellos?

Vamos a usar un ejemplo para entenderlo mejor.

El punto ciego

El punto ciego, Psicología del autoengaño es un libro de Daniel Goleman. Lo leí siendo joven (allá por la Edad Media) y me encantó. El autor hace un penetrante análisis de las diversas formas de autoengaño que realizamos para protegernos de la ansiedad, el fracaso y el dolor. Goleman encuentra evidencias de ello en todos los niveles: desde la actividad mental individual a la dinámica de toda una sociedad. El libro está plagado de ejemplos superinteresantes de cómo el cerebro humano es capaz de filtrar selectivamente la información que recibe. Crea un punto ciego que bloquea la atención y disminuye el impacto de las decepciones.

Rodolfo Ramos Álvarez
El punto ciego – Daniel Goleman

Es decir, es un sesgo mental del que ni siquiera nos damos cuenta de que está ahí.

El nombre del libro se basa en el punto ciego que todos tenemos en nuestra visión. Ya sabes que todos tenemos en la visión de cada ojo una falta de información permanente de una zona donde no hay células fotorreceptoras (conos y bastones). Es así porque es el punto donde el nervio óptico se conecta al ojo. Como resultado, no podemos percibir imágenes en esa pequeña región. Sin embargo, el cerebro “rellena” esta información usando datos de los ojos y del entorno, por lo que no notamos normalmente este vacío en nuestro campo visual. Es decir, no sabes que desconoces información visual de forma permanente.

Rodolfo Ramos Álvarez
El punto ciego del ojo es una zona sin sensibilidad óptica ubicada en la retina. Se encuentra en el centro de esta y carece de células sensibles a la luz.

Sesgo Implícito

El sesgo implícito es precisamente eso: actitudes o estereotipos que influyen en nuestro comportamiento de manera automática e inconsciente. Podría ser como un punto ciego que nos lleva a actuar de una determinada manera poniendo en situación de desventaja a otros colectivos sin ser totalmente conscientes de ello.

Y es aquí donde la combinación de inteligencia artificial y psicología cobra relevancia. Porque, aunque el ser humano muchas veces no se da cuenta de esos sesgos, la IA está aquí para desenmascararlos.

Rodolfo Ramos Álvarez
AI detectando sesgos en entornos laborales

¿Por qué es un problema tan grave?

Imagina por un momento que un programador crea una aplicación sin darse cuenta de que está impregnando sus algoritmos de sesgos raciales. Podrá decir que no lo hace adrede aunque la APP se llamaba “Averigua cuánto te pareces a mi amigo Adolfito”.

No es que esté programando una app para medir la “pureza” racial o algo tan descabellado. Pero, al final, estos pequeños prejuicios que todos llevamos encima por nuestra educación e historia personal, se filtran. Y ahí está el peligro.

Un ejemplo claro de esto lo podemos ver en AIportraits, una app que se puso de moda transformando nuestras fotos en retratos al estilo renacentista o barroco. Y aunque parece algo inocente, es aquí donde comienza el problema.

El ejemplo de AIportraits: Un sesgo inesperado

 

Rodolfo Ramos Álvarez

¿Te has fijado en esta imagen? A la izquierda está la actriz Tessa Thompson con su color de piel natural. Pero, cuando AIportraits reinterpretó su foto, aclaró notablemente su tono de piel en el retrato final. Ahí lo tienes, un sesgo racial en acción.

Es un claro ejemplo de cómo una IA mal entrenada puede mostrar resultados con sesgos raciales, aunque no sea intencionado. Este no es un caso aislado. Cuando la inteligencia artificial se entrena con datos que ya tienen prejuicios implícitos, esos mismos prejuicios se reflejan en los resultados.

Y entonces, ¿qué podemos hacer?

Corregir estos sesgos no es tarea fácil. A veces ni siquiera los programadores son conscientes de ellos, y mucho menos los usuarios. Pero es crucial que sigamos investigando en cómo entrenar estos algoritmos con datos representativos y justos. Porque no podemos permitir que la IA refuerce los prejuicios que intentamos erradicar.

En la próxima entrada, hablaré más en profundidad sobre los desafíos que supone entrenar IA sin sesgos y cómo la psicología y la ética juegan un papel clave en esta batalla.

Links de Interés

Evaluación del conocimiento de la fenilcetonuria

Mi Blog sobre PKU

Algunas noticias sobre mí

Mi canal de YouTube

Mi Instagram

Mi Twitter 

Página de Psicología e IA en Facebook

Página de PKU en Facebook

Mi CV en Dialnet

Web personal

Web sobre filosofía 

Web sobre fenilcetonuria

Imágenes de noticias sobre el autor

Imagen 1

Imagen 2

Imagen 3

Imagen 4

Imagen 5

Imagen 6

Leave a Reply

Your email address will not be published. Required fields are marked *