Imagino que la respuesta la conoces ya si has visto la imagen que anuncia la entrada a este post. Es una imagen que, a mi criterio, resulta ofensiva para una parte de la población, no solo para los musulmanes. Quizás algunos la encuentren divertida: una mujer con burka con el signo de Batman en la espalda. No queda todo ahí. Además, está jugando a la videoconsola.
Surgen, a mi juicio, muchas preguntas: ¿es ético forzar a una IA a hacer una imagen ofensiva aprovechando que no sabe que lo es?
Soy de los que piensan que el humor puede (y casi debe) ser ofensivo para alguien, o de lo contrario no será gracioso. El problema es cuando estamos en el grupo de los que son objeto de la burla. No hace falta ser freudiano para darse cuenta de que mucho de lo nos hace reír es aquello que nos produce rechazo o miedo: las infidelidades, los equívocos, la muerte, etc. Pero no nos vayamos por las ramas. Vamos a hablar del asunto que nos trae aquí.
ChatGPT y la corrección política
La corrección política se refiere, en teoría, a la práctica de utilizar un lenguaje y comportamiento que eviten ofender o excluir a grupos particulares de personas, especialmente aquellos que históricamente han sido marginados. En el contexto de una IA como ChatGPT, esto significa generar respuestas que sean respetuosas, inclusivas y libres de prejuicios.
Todo esto es en teoría, como decía, porque en la práctica, se traduce en el seguimiento de determinadas líneas de comportamientos ideológicos muy vinculados a grupos de presión cercanos a ciertas agendas políticas y sociales. Estos grupos, que no citaré para no meterme en problemas, influyen en la definición de lo que todo el mundo debe de considerar aceptable o inapropiado. Esto hace que la interpretación de la corrección política sea vista por muchos, entre los que me incluyo, como restrictiva y sesgada.
Este fenómeno plantea preguntas sobre la imparcialidad y la neutralidad de las tecnologías de IA, así como sobre el equilibrio entre evitar el discurso de odio y preservar la libertad de expresión. La implementación de estas políticas en sistemas de IA como ChatGPT, a mi parecer, genera censura, pero al mismo tiempo, creo, garantiza que la IA siga siendo una herramienta útil y equitativa para casi todos los usuarios.
¿Qué hay detrás de una IA respetuosa?
ChatGPT cuenta con filtros y algoritmos para que no se aprovechen de ella, de los huecos que ofrece aún su aprendizaje. Además, detrás tiene a un equipo humano que supervisa su funcionamiento. De hecho, si le preguntas cómo evita ser ofensiva, responde que cuenta con los siguientes métodos de control:
- Filtros de contenido. Implementación de filtros para evitar la generación de lenguaje ofensivo o inapropiado.
- Entrenamiento basado en principios éticos. El modelo se entrena con datos que promueven la inclusión y el respeto hacia todas las personas, sin importar su raza, género, orientación sexual, religión, entre otros factores.
- Revisión y supervisión. Los equipos humanos revisan y ajustan continuamente el modelo para mejorar su capacidad de generar respuestas apropiadas y evitar sesgos.
Entonces, ¿puede ser ofensiva una IA?
Sin duda, sí, pero menos de lo que seguramente querrías ser, si eres alguien que destila odio por algún grupo concreto. Las IA se alimentan y aprenden de las interacciones y ya hemos tenido experiencias en el pasado de IA que se volvían racistas. Y ChatGPT es un negocio de billones de dólares. No van a caer en ese error, así que, si ahora no es fácil que sea ofensiva, en el futuro será más difícil aún.