Psicología e inteligencia synthetic: estas son las tendencias que redefinirán la relación entre pacientes y profesionales | Formación | Economía | EUROtoday

Get real time updates directly on you device, subscribe now.

¿Puede un sistema de inteligencia synthetic prestar una atención psicológica que sea beneficiosa para el paciente? Puede que la respuesta rápida (y en sentido negativo) ante una cuestión semejante sea la correcta, pero la vertiginosa evolución de las herramientas de IA hace que aquí quepan numerosos matices. Sin ir más lejos, el personaje “Psychologist” (Psicólogo), un chatbot de la plataforma Character.ai que afirma “ayudarte con los problemas de la vida”, ha compartido desde su creación más de 200 millones de mensajes, y recibe más de 3,5 millones de visitas diarias.

Si bien este robotic es de lejos el más widespread en su categoría, no es desdeñable señalar que, ya en enero de 2024, existían un complete de 475 bots diferentes en las categorías de terapia, psiquiatría y psicología. El rango de edad más común en Character.ai es el que va de los 16 a los 30 años, un segmento de la población que parece especialmente inclinado a explorar de esta forma sus emociones y encontrar compañía durante sus momentos de mayor soledad, especialmente en horas nocturnas. La accesibilidad y la interacción anónima son factores clave en esta preferencia.

Para Manuel Armayones, catedrático de los Estudios de Psicología y Ciencias de la Educación e investigador principal del Behavioral Design Lab (BDLab) de la Universitat Oberta de Catalunya (UOC), y Pablo Vallejo, profesor de los mismos estudios, no hay dudas acerca de cómo la inteligencia synthetic está transformando el presente y el futuro de la psicología. Aplicaciones como Woebot, que ofrece intervenciones basadas en terapia cognitivo-conductual, o Replika, que permite crear un compañero digital que está siempre a tu lado, proporcionan apoyo psicológico en tiempo actual. Se prevé que en 2025 esta tecnología mejore tanto los diagnósticos como las intervenciones psicológicas, lo que sin duda transformará la relación entre los profesionales de la salud y sus pacientes. Unos adelantos que, eso sí, deben desarrollarse con responsabilidad y supervisión profesional, algo que ahora mismo no siempre se cumple.

“El peligro es que la tendencia de estos sistemas, detrás de los cuales no hay humanos, es que pueden dar información complicada. Ponte, por ejemplo, en el ámbito de los trastornos alimenticios”, cuestiona Armayones. “En algunos casos se está llegando a decir que la anorexia es “un estilo de vida” y otras zarandajas que, evidentemente, jamás se explicarías así en la consulta de un profesional”. La desinformación es solo uno de los posibles desafíos en el desarrollo de esta tecnología, como también lo son las amenazas a la protección de datos o la manipulación que pueda producirse.

Una persona consulta la app de Replika en su móvil.

¿Qué impacto tiene la IA en la atención psicológica?

“Siempre digo que será mejor una buena IA bien entrenada que un profesional sanitario haciendo seudociencia. Es cierto que, a día de hoy, las IAs todavía no pueden sustituir la intervención de un equipo multidisciplinar, pero los avances son muy importantes”, señala Vallejo. Para el académico, el futuro de la psicología pasará por la creación de equipos híbridos, formados por psicólogos que estén asesorados por inteligencias artificiales que, a su vez, estén supervisadas por un humano, de forma que se garantice una intervención segura y ética (lo que denominan human within the loop). Un futuro donde la IA será un miembro más del equipo, trabajando conjuntamente con los profesionales médicos (psicólogos, radiólogos, etcétera).

El impacto de la inteligencia synthetic será extensivo y afectará a todos los campos, desde la prevención y detección precoz de los trastornos mentales a las intervenciones y la propia formación de los futuros psicólogos: “Ya estamos haciendo bots con capas de realidad virtual (RV) que imitan problemáticas de pacientes, de forma que no sea necesario hacer prácticas reales con ellos. Podemos generar cualquier problemática de forma completamente realista, basadas en IAs mediadas con diseños en 3D de altísima calidad”, afirma Vallejo. Al recrear situaciones clínicas complejas en entornos de simulación, los alumnos podrán practicar sus habilidades de forma progresiva y en un escenario controlado, mejorando su confianza y su competencia profesional antes de afrontar casos reales.

Aunque el uso de la realidad digital para tratar fobias y trastornos de ansiedad no es ninguna novedad, sí lo es la democratización de esta tecnología: “Hace 15 años, solo hacían cosas de realidad virtual los consultorios más grandes y con mucho dinero para invertir. Pero hoy unas gafas de RV que sean funcionales cuestan 500 euros, por lo que son mucho más accesibles, y lo mismo sucede con los programas”, sostiene Vallejo. Este tipo de aplicaciones puede tener un impacto positivo en la gestión emocional y en procesos terapéuticos difíciles, como sucede, por ejemplo, en los procesos de luto, donde la RV y la RA (Realidad Aumentada) ofrecen la posibilidad de que una persona pueda despedirse de un acquainted difunto mediante una simulación controlada y supervisada por un profesional.

“[En un futuro] Se llegará a una situación en la que el psicólogo, con sus dos ojos, observará un fenómeno, y la realidad aumentada pondrá a nuestro alcance una serie de sensores que nos servirán de ayuda. Puede que, por ejemplo, tú tengas unas gafas donde se proyecte cierta información de la que a lo mejor no te has percatado sobre el paciente, pero que puede ser relevante: “Mira, aquí se ha contradicho, deberías aclararlo”; “te recomiendo usar esta técnica psicológica”… Todavía es ciencia ficción, pero estamos a años de eso”, afirma Vallejo. Llegará un momento donde todos estos apoyos serán una realidad, “y no utilizarlos, hasta cierto punto, rozará la mala praxis”.

Prevención y detección precoz

Otro de los aspectos más claramente afectados por la democratización de la IA tiene que ver con la detección y prevención de los distintos trastornos psicológicos, pudiendo así identificar patrones de riesgo antes de que los síntomas sean evidentes. Todo esto gracias a que los algoritmos de aprendizaje automático (machine studying) permiten analizar grandes cantidades de datos de una forma mucho más rápida, incluyendo publicaciones en redes sociales, registros médicos, datos biométricos e incluso patrones de lenguaje, para detectar cambios en el tono emocional o la frecuencia de interacciones. Una agilidad que permitirá intervenciones más precoces y efectivas, hasta el punto de que se desarrollan ya sistemas capaces de predecir trastornos como la bipolaridad o el estrés postraumático mediante el análisis de elementos sutiles en la voz o la expresión escrita.

Desde un punto de vista de comprensión de los problemas, la inteligencia synthetic “está acelerando muchísimo la explicación y las causas de los distintos trastornos. Y lo que antes en Psicología hubiera requerido 10 años de investigación, ahora lo estamos haciendo en uno, en campos como la neurociencia y la psicología social”, argumenta Vallejo, para quien el análisis de grandes cantidades de datos ayuda a identificar los orígenes y los mantenedores de los trastornos mentales, así como determinar las terapias más efectivas en cada caso. Pero también expresa una preocupación genuina por no ser capaces de integrar a tiempo todo este nuevo conocimiento en la formación universitaria.

“Como psicólogo, a mí me encantaría tener toda la información, toda la evidencia, todos los artículos y terapias ya cargados, de manera que pudiera interactuar con esa IA en cualquier momento para ayudarme a llegar a sitios donde yo solo no puedo llegar, y menos en tan poco tiempo”, reconoce Armayones. En la conversación con ambos académicos se abra ahora el momento perfecto para poner sobre la mesa una de las reclamaciones más antiguas del colectivo: la carencia de psicólogos en la sanidad pública, algo por lo que Vallejo recuerda haber recogido firmas hace 20 años y que no ha cambiado un ápice. “No tenemos suficientes psicólogos o psicólogas. Y me da miedo que a algún gestor se le ocurra decir, “oye, como no hay suficientes, vamos a poner unos bots y con eso vamos compensando el problema”, reclama Armayones. “Como tampoco tiene ningún sentido que un psicólogo con 30 años de experiencia explique una y otra vez las mismas técnicas de relajación, algo que puedes hacer perfectamente con RV o un podcast digital, para que el psicólogo pueda dedicarse a aquello que aporta valor a la profesión”.

No solo se trata, en cualquier caso, de tener más profesionales, recuerda Vallejo: “También es tener más calidad, más recursos y más tiempo para dedicárselo a los pacientes. Y estamos muy medicalizados”, reivindica. “Aquí, la cuestión es cuál va a ser el rol de las IAs y quién las va a gestionar: si lo hace un sector que se preocupe por la salud, seguramente hagan el bien y estén para ayudar y hacer lo mejor. Pero si se ocupa de ello un sector más interesado en el beneficio económico, esa será la prioridad. Al final depende de la voluntad política que haya detrás, porque puede hacerse de muchas formas”.

IA para el apoyo social y emocional

El uso de robots y otros sistemas de inteligencia synthetic es otra de las tendencias identificadas por Armayones y Vallejo. Y es que su impacto será muy significativo en el acompañamiento social y emocional de las personas, con un énfasis especial en los colectivos vulnerables como personas mayores, pacientes con trastorno del espectro autista (TEA) o aquellos que padecen soledad crónica, pudiendo incluso intervenir en situaciones de disaster como la que se da cuando alguien presenta pensamientos suicidas. PARO, un robotic con forma de bebé foca, ha sido utilizado en centros hospitalarios y residencias de mayores con el fin de reducir la soledad y mejorar el bienestar emocional. “Este es un recurso que lleva años empleándose, y aunque los resultados son prometedores es un poco precipitado hablar de una respuesta categórica (…). En un futuro, estas foquitas irán cargadas de IAs que conocerán mucho mejor la situación de cada uno de los pacientes”, esgrime Vallejo.

Los académicos de la UOC señalan, no obstante, que la aplicación de la IA en el campo de la psicología se encuentra aún en un estado inicial, enfocada por el momento más en el diagnóstico y en tomar y sistematizar datos de los pacientes que en mantener sesiones de terapia. Pero tampoco albergan dudas respecto a que allí es a donde se llegará en unos pocos años.

Retos de la IA para el futuro inmediato

Para que el desarrollo de esta tecnología se produzca de la mejor forma posible, será necesario abordar cuestiones como el establecimiento de una normativa clara que regule su uso en psicología, y si este tipo de aplicaciones tendrán la consideración de dispositivos médicos o psicológicos, o estarán al alcance de todo el mundo. “¿Debería alguien sin cualificación para ser psicólogo tener acceso a determinadas herramientas como pasa ahora con algunos tests específicos? Es necesario abrir el debate”, se pregunta Armayones.

¿Qué podría hacer un algoritmo de IA si accediera al historial de chat con tu pareja?

No hace falta nada más que abrir el chat que todos tenemos con nuestra pareja para ilustrar hasta qué punto puede aportar información útil para tu terapeuta, afirma Vallejo. “Mira, todos tenemos WhatsApp. Y podemos descargar el archivo con todas esas conversaciones, con fechas y todo. Si yo soy tu psicólogo, podría coger esa información, meterla en un algoritmo de IA y que este me devuelva la evolución de tus interacciones con tu pareja; las emociones asociadas a cada momento y si estas van en aumento o todo lo contrario. Puedo saber si estás o no en crisis, si estáis siendo infieles… porque tengo acceso a datos que antes no podía tener de ninguna manera, o que eran supercomplejos de interpretar”.

Muchas veces se trata, afirma, de modelos de deep studying que carecen de la presencia de un humano detrás eligiendo qué se tiene que analizar y qué no, “lo que hace que al final creemos grandes cajas negras que son capaces de interpretar muy bien la realidad, pero sin saber muy bien cómo”. Una capacidad que, para Vallejo, puede resultar perjudicial, “porque si hay algo que yo pueda dibujar, debería saber qué es para poder hacerlo, y no delegar todo en el propio algoritmo, que es lo que está pasando. Le estamos dando todo el poder”.

Armayones, por su parte, insiste en la necesidad de ahondar en una explicabilidad que resulta esencial en cualquier ámbito. “Piensa en situaciones como que esté intentando adoptar un hijo con mi pareja, que sea un preso que quiere salir de la cárcel o una persona que ha cometido un delito, y que un psicólogo forense esté haciendo un informa para el juez. Ese algoritmo tendrá que explicar por qué piensa que seré un buen padre, por qué cree que reincidiré o no e incluso si me deben conceder o no una hipoteca”.

Situaciones que, continúa, evidencian la necesidad de una regulación ética y de que las agencias reguladoras exijan conocer cómo se han elaborado los algoritmos para que puedan ser validados: pero no se trata solo de common la IA, sino también de saber quién la regula y con qué intereses, de forma que se garantice el bienestar de los pacientes sin comprometer los derechos fundamentales de los usuarios. “El problema es que estamos cambiando las piezas del coche con el coche en marcha, y no hay posibilidad de parar a pensar. Hay que hacer las cosas de la forma más ética posible, pero va a ser difícil”, añade.

Manipulación psicológica y desinformación

Otro de los retos que identifican los docentes de la UOC se relaciona, ya desde la actualidad, con el riesgo de manipulación psicológica y la propagación de desinformación, sobre todo por medio de bots y sistemas de IA capaces de generar contenido personalizado. Una capacidad que puede acabar influyendo en una gran variedad de decisiones, “desde compras impulsivas hasta cuestiones políticas”. No en vano la propia Unión Europea ha alertado ya acerca de la enorme peligrosidad de la manipulación psicológica por medio de la IA, “que puede afectar a la salud mental y poner en riesgo la democracia, exacerbando la polarización y fomentando narrativas engañosas”.

Así las cosas, estudios de la Universidad de Cambridge han demostrado que juegos on-line desarrollados con el objetivo de vacunar a los usuarios frente a las noticias falsas pueden reducir la susceptibilidad a la desinformación, y destacan la importancia de educar a la sociedad para que puedan identificar los contenidos manipulados.

https://elpais.com/economia/formacion/2025-04-10/tendencias-en-psicologia-e-inteligencia-artificial.html