21.3 C
Talca
InicioCrónicaEspecialista responde: ¿Chat GPT puede ser tu psicólogo personal?

Especialista responde: ¿Chat GPT puede ser tu psicólogo personal?

Muchas personas están utilizando herramientas de inteligencia artificial buscando apoyo terapéutico

¿Cuál es el contexto?

Desde solicitar ayuda para preparar una receta culinaria hasta pedir consejos financieros para hacer rendir el salario hasta fin de mes, la Inteligencia Artificial (IA) se ha convertido en una herramienta habitual en el día a día de las personas.

¿Cuál es la problemática?

Aunque estas tecnologías pueden proporcionar información útil, no han sido diseñadas para sustituir, por ejemplo, el apoyo que puede brindar un psicólogo profesional.

¿Qué dice un especialista?

Así lo destacó Nadia Ramos Alvarado, directora del Centro de Psicología Aplicada (CEPA) de la Universidad de Talca, quien explicó que el uso de una IA puede –eventualmente- ser un apoyo, pero no puede ser considerado como una psicoterapia, ya que, esta “tiene características particulares, asociadas al establecimiento de una relación con otra persona y dándose en un entorno de confianza”.

¿Cuál es la advertencia?

“La inteligencia artificial no tiene capacidad de comprender la complejidad única de cada individuo, por tanto, solo puede entregar recomendaciones genéricas. Tampoco es capaz de percibir las señales no verbales, aspectos que un terapeuta profesional entrenado sí puede hacer”, añadió.

¿Qué esperar de la IA?

Recalcó que la IA, en sus versiones conversacionales, puede “entregar ciertos consejos, pero que no reemplazar un proceso terapéutico. Yo diría que el riesgo, en el caso además de poblaciones vulnerables como los niños, niñas, adolescentes, es que ellos no tienen todavía la capacidad de discriminar hasta dónde puede llegar el uso de esta tecnología”.

Hay que considerar, señaló la psicóloga Nadia Ramos Alvarado, que estas aplicaciones “se basan, muchas de ellas, en elementos que tienen que ver más con entretenimiento y no están pensados en función de la salud mental y, por ejemplo, pueden terminar reafirmando pensamientos que pueden estar erróneos o creencias que están distorsionadas en la persona”.

¿Es peligroso?

“Cuando uno piensa en que se puede hacer un amigo virtual, el foco no es el cuidado de la salud mental y tampoco está basado en evidencia científica. Entonces hay un riesgo, porque la inteligencia artificial tiene sesgos y comete errores, impidiendo establecer una relación genuina de apoyo y de acompañamiento para un cambio, que es lo que se espera en psicoterapia”, indicó la especialista.

¿Cuál es el riesgo?

«Si bien hay chatbots de IA creados para abordar temas de salud mental, no cuentan con evidencia científica de su efectividad”.
“También existen chatbots desarrollados como entretenimiento, por lo que su uso para salud mental es aún más complejo ya que utilizan algoritmos para mantener a los usuarios comprometidos en la actividad la mayor cantidad de tiempo posible recopilando datos, y los usuarios no tienen clara su finalidad o si tienen niveles de confidencialidad apropiados al contexto terapéutico”, agregó.

¿Qué puede ocurrir a futuro?

«Al día de hoy, si bien es cierto, se pueden programar algunos elementos asociados a la interacción con las personas, no tiene la capacidad de analizar los aspectos emocionales que están implicados en una relación terapéutica, de estar cara a cara, aunque sea por virtualidad”, explicó la docente.

Mantente Informado
18,742FansMe gusta
8,330SeguidoresSeguir
2,501SeguidoresSeguir
1,130SuscriptoresSuscribirte
Noticias Relacionadas