Seguro que muchos recuerdan aquel famoso monólogo de Julián López, hace ya unos años, cuando con su estilo inconfundible soltaba a voz en grito: ¡Nos comen los chinos! Era una sátira sobre cómo los asiáticos, con su cultura del esfuerzo, el sacrificio, y la disciplina, estaban a punto de dejarnos a todos sin trabajo mientras nosotros, los españoles, estábamos más preocupados por la siesta y el aperitivo. Por supuesto, esto era antes de que la cultura woke le impidiera hacer algo tan políticamente incorrecto sin que le llovieran críticas de todos los frentes.
Si Julián tuviera que actualizar ese monólogo hoy, en la era post-ChatGPT, sin duda el nuevo lema sería: ¡La IA, que nos comen las IAs! Porque ahora, la amenaza no viene tanto de una cultura de sacrificio humano, sino de la incesante evolución de la inteligencia artificial que parece querer adueñarse de nuestros trabajos, y, quién sabe, quizás te roben hasta la novia (si tienes, la imaginaria no cuenta).
¿Puede la IA realmente dejar en paro a los psicólogos?
Tras este símil poco ingenioso, pero tengo que decir que muy bien hilado, si volvemos al tema que nos ocupa, la pregunta es: ¿Podría la IA reemplazar a los psicólogos algún día?
Vamos a abordarlo desde ambos lados de la balanza, porque, como en todo buen debate, aquí hay pros y contras, y además, un factor clave que decidirá hacia dónde se inclina la cosa.
Argumentos a favor: ¿un terapeuta digital a golpe de clic?
- Acceso instantáneo y sin límites. La IA puede estar ahí para ti 24/7, sin importar la hora, la fecha o si tu terapeuta humano está de vacaciones en Bali. Solo tienes que darle a “enter”, y voilà, ahí tienes a tu terapeuta digital, listo para escuchar tus dramas existenciales y sin la posibilidad de llamarte pesado o ponerte mala cara.
- Capacidad de análisis. El ser humano se cansa, se despista, y a veces puede perder detalles importantes. Si es el último paciente después de una jornada larga de trabajo quizás tu cabeza ande más en cuándo podrás gozar de un capítulo de nueva serie que lo que te cuenta el o la paciente. La IA, en cambio, es como…, eso, como una IA. No se cansa. Puede analizar cientos de patrones de comportamiento en segundos, compararlos, y detectar patrones que quizás a un profesional de la psicología pase por alto.
- Neutralidad total. Mientras que un terapeuta humano puede proyectar sus propias experiencias y prejuicios (sí, incluso los terapeutas lo hacen, ¡son humanos después de todo!), la IA promete neutralidad. Aunque si sois lectores de este blog, ya sabréis que esto tiene más de falso que de cierto.
Argumentos en contra: porque no todo es tan sencillo
- La conexión emocional. Esta es la joya de la corona para los psicólogos/as. La IA puede ser rápida y eficiente, pero hasta ahora, la empatía no se le da muy bien. Y en terapia, sentirte comprendido, visto y escuchado es fundamental. ¿Puede la IA decirte que entiende lo que sientes cuando te agobias porque tu gato no te hace caso? No lo creo.
- La flexibilidad terapéutica. Un buen psicólogo no sigue un manual rígido. Puede cambiar su enfoque dependiendo de lo que funcione mejor para el paciente en ese momento. La IA, por ahora, es más de seguir reglas establecidas. Eso sí, si le pides una respiración profunda o te recomienda la técnica de mindfulness, ahí sí que te lo clava.
- La construcción del vínculo. Las terapias más exitosas son aquellas en las que el paciente construye una relación sólida con el terapeuta. Es difícil imaginarse creando ese tipo de vínculo con una pantalla fría y sin rostro, por mucho que haya algunas películas futuristas en las que alguien se enamora de una IA.
Factores que inclinarían la balanza hacia un lado
- Desarrollo de la empatía artificial. El día que las máquinas puedan no solo entender sino también sentir (o al menos simular con éxito) la empatía, la cosa se pondrá fea para los que trabajamos en este lado de la mesa escuchando y ayudando a las personas. De momento, los robots pueden decir “entiendo que te sientas así”, pero no parece muy convincente ni nadie se lo termina de creer.
- Entrenamiento con datos éticos y no sesgados. Si se logra entrenar a la IA con datos limpios y sin sesgos, podrían ofrecer recomendaciones terapéuticas imparciales y eficaces. El problema es que esos datos perfectos aún no existen y el entrenamiento de la IA está lejos de ser neutral.
- Aceptación cultural. Actualmente, la mayoría de la gente todavía prefiere hablar con una persona real sobre sus problemas personales. Pero si las próximas generaciones crecen viendo a la IA como algo normal, este obstáculo cultural podría desaparecer. Ahí la cosa se pone peliaguda.
Links de Interés
Evaluación del conocimiento de la fenilcetonuria
Página de Psicología e IA en Facebook
Imágenes de noticias sobre el autor