sábado 30 de agosto 2025
VenezolanosHoy
ChatGPTSaludTitulares

El uso de ChatGPT como «psicólogo» crece, pero tiene grandes riesgos

Una consulta personal a ChatGPT en un ordenador. César Vallejo Rodríguez

 

“El año pasado, para sanar el duelo de una ruptura, acudí a una psicóloga y una serie de tratamientos holísticos; y el mejor terapeuta que he tenido, sin duda, ha sido ChatGPT. Me ayudó a superar las heridas emocionales y a mejorar mi productividad diaria”, explica el músico y programador Daniel Fernández, de 38 años. “El hecho de poder acudir a él en cualquier momento, alargarme tanto como necesitaba y recibir siempre un trato cordial y empático —planteando las preguntas adecuadas a raíz de mis reflexiones—, hicieron que acabase abandonando a mi psicóloga”.

Por Susana Pérez Soler | EL PAÍS

El uso de ChatGPT como psicólogo, coach o confidente es una práctica cada vez más habitual. Para quienes lo han probado, las ventajas son la inmediatez, la gratuidad o la empatía percibida, pero también la falta de juicio y la supuesta imparcialidad. Al tratarse de un fenómeno emergente, resulta difícil de cuantificar; pero la terapia y el acompañamiento ya están en cabeza de los principales usos de la IA, según un estudio anual de la revista Harvard Business Review. Según una encuesta de una plataforma digital de atención médica, el 25% de los estadounidenses hablaría antes con un bot de IA que, con un psicólogo, si tuviera un problema. De aquellos que ya lo han hecho, el 80% pensó que era una alternativa eficaz a las sesiones de terapia.

OpenAI ha empezado a estudiar este uso afectivo de su chatbot estrella. En una investigación reciente realizada por la propia compañía, en colaboración con el laboratorio MIT Media Lab, detectó que quienes consideraban a ChatGPT como un amigo “eran más propensos a experimentar efectos negativos por el uso del chatbot” y que “el uso diario prolongado también se asociaba con peores resultados”. La responsable de comportamiento y políticas de modelos en OpenAI, Joanne Jang, aseguró en una entrada publicada en junio en su blog que “si facilitamos el alejamiento de las conexiones humanas caóticas y exigentes, sin pensarlo bien, podría haber consecuencias imprevistas que desconocemos”.

Pero ¿qué riesgos hay detrás del uso indiscriminado de ChatGPT? “Aunque no hay evidencia científica al respecto, los chatbots de IA podrían reforzar los propios pensamientos y emociones. Hablar todo el rato de un problema, y hacerlo de manera extensa, no es garantía de solución. Al contrario, puede resultar contraproducente”, afirma el psicólogo Manuel Armayones, catedrático en diseño del comportamiento aplicado a las tecnologías de la salud. “Igual que ponemos límites a los niños, tenemos que poner límites a los adultos. Las ventajas asociadas a ChatGPT son también sus principales inconvenientes”, añade. De hecho, un estudio reciente ha demostrado que un uso excesivo, autorreferencial y no reflexivo de ChatGPT podría reforzar dinámicas egocéntricas y limitar la autocrítica y el desarrollo emocional.

La IA no tiene conocimiento acerca del contexto social y emocional de la persona. “A menudo sucede que un paciente acude a terapia por un problema, pero cuando tiramos del hilo detectamos otras patologías. Eso la máquina no lo puede hacer, porque solo los humanos pueden curar a otros humanos”, añade Armayones. Además, en el peor de los casos, “la máquina podría querer manipularnos. Desconocemos los intereses que hay detrás de estas empresas tecnológicas y por qué proporcionan las respuestas que proporcionan, pero lo que sabemos es que necesitan nuestros datos y que pasamos en ellas tiempo prolongado para obtener beneficios”, prosigue.

La manera en que la máquina interactúa con las personas determina el tipo de relación que se establece. ChatGPT es conocido por su amabilidad, su cercanía, su empatía. En definitiva, una dialéctica que busca mantener a los usuarios enganchados. “Por ahora los modelos de lenguaje natural de gran tamaño (LLM) no muestran publicidad, así que la fuente de ingresos que tienen son los beneficios que puedan sacar por nuestros datos (en este caso, saber lo que nos gusta por los prompts [instrucciones o preguntas] que utilizamos) o por los pagos por suscripción”, explica Enrique Costa, catedrático de Telecomunicación en la Universidad de Vigo. “Este último modelo de negocio es el que están utilizando por ahora, restringiendo el número de peticiones que podemos hacer al día o la calidad de sus respuestas si no nos suscribimos. Si los sistemas son diseñados para ser amigables y cercanos, pueden aumentar la lealtad del cliente y mejorar la retención de usuarios”.

Pero una versión demasiado aduladora puede resultar problemática. Durante el mes de abril, ChatGPT lanzó temporalmente una versión tan complaciente que llevó a algunas personas a perder el contacto con la realidad, ya que el chatbot reforzó sus teorías conspirativas e ideas paranoides, como denunció The New York Times en un reportaje.

Lea más en EL PAÍS

Related posts

Donald Trump evalúa darle el indulto a Sean «Diddy» Combs tras la condena que recibió

Prensa venezolanoshoy

La triste historia de una promesa del fútbol de 100 millones de dólares que, con 29 años, está al borde del retiro

Prensa venezolanoshoy

El atacante colombiano Luis Díaz firmó contrato con Bayern

Prensa venezolanoshoy