- Muchas personas están utilizando herramientas de inteligencia artificial buscando apoyo terapéutico. Académica de la Universidad de Talca puntualizó los beneficios y riesgos de esta práctica.
Desde solicitar ayuda para preparar una receta culinaria hasta pedir consejos financieros para rendir el salario hasta fin de mes, la Inteligencia Artificial (IA) se ha convertido en una herramienta habitual en el día a día de las personas. Sin embargo, aunque estas tecnologías pueden proporcionar información útil, no han sido diseñadas para sustituir, por ejemplo, el apoyo que puede brindar un psicólogo profesional.
Así lo destacó Nadia Ramos Alvarado, directora del Centro de Psicología Aplicada (CEPA) de la Universidad de Talca, quien explicó que el uso de una IA puede –eventualmente- ser un apoyo, pero no puede ser considerado como una psicoterapia, ya que, esta “tiene características particulares, asociadas al establecimiento de una relación con otra persona y dándose en un entorno de confianza”.
La especialista agregó que, no podemos olvidar que “la inteligencia artificial no tiene capacidad de comprender la complejidad única de cada individuo, por tanto, solo puede entregar recomendaciones genéricas. Tampoco es capaz de percibir las señales no verbales, aspectos que un terapeuta profesional entrenado sí puede hacer”.
En este sentido, recalcó que la IA, en sus versiones conversacionales, puede “entregar ciertos consejos, pero que no reemplazar un proceso terapéutico. Yo diría que el riesgo, en el caso además de poblaciones vulnerables como los niños, niñas, adolescentes, es que ellos no tienen todavía la capacidad de discriminar hasta dónde puede llegar el uso de esta tecnología”.
Hay que considerar, señaló la psicóloga Nadia Ramos Alvarado, que estas aplicaciones “se basan, muchas de ellas, en elementos que tienen que ver más con entretenimiento y no están pensados en función de la salud mental y, por ejemplo, pueden terminar reafirmando pensamientos que pueden estar erróneos o creencias que están distorsionadas en la persona”.
“Cuando uno piensa en que se puede hacer un amigo virtual, el foco no es el cuidado de la salud mental y tampoco está basado en evidencia científica. Entonces hay un riesgo, porque la inteligencia artificial tiene sesgos y comete errores, impidiendo establecer una relación genuina de apoyo y de acompañamiento para un cambio, que es lo que se espera en psicoterapia”, indicó.
Dentro de los riesgos que surgen de esta práctica de recurrir a la inteligencia artificial para apoyarse psicológicamente, la académica de la UTalca destacó que, si bien “hay chatbots de IA creados para abordar temas de salud mental, no cuentan con evidencia científica de su efectividad”.
“También existen chatbots desarrollados como entretenimiento, por lo que su uso para salud mental es aún más complejo ya que utilizan algoritmos para mantener a los usuarios comprometidos en la actividad la mayor cantidad de tiempo posible recopilando datos, y los usuarios no tienen clara su finalidad o si tienen niveles de confidencialidad apropiados al contexto terapéutico”, agregó.
Para finalizar, la especialista recalcó que es difícil conocer los futuros alcances de la IA en el ámbito de la psicoterapia, “pero al día de hoy, si bien es cierto, se pueden programar algunos elementos asociados a la interacción con las personas, no tiene la capacidad de analizar los aspectos emocionales que están implicados en una relación terapéutica, de estar cara a cara, aunque sea por virtualidad”.
LINK DE PRENSA
https://udetalca-my.