top of page

ChatGPT como confidente relacional: una herramienta poderosa que presenta riesgos

  • Foto del escritor: connectedguide
    connectedguide
  • 17 jul
  • 2 Min. de lectura


Cada vez más personas, especialmente jóvenes y parejas con recursos limitados, recurren a ChatGPT para desahogarse y resolver tensiones emocionales. Es económico, está disponible 24/7 y no existe el juicio de otra persona. Estos modelos de lenguaje están programados para darnos respuestas moldeadas por la información que está disponible en el internet, así como por el contenido de las conversaciones que nosotros vamos creando en la interacción con el chatbot.

Puede ser una herramienta sumamente útil como una entidad con la que podemos intercambiar ideas, ajustar nuestros pensamientos para entender mejor lo que en ese momento nos preocupa. Después de una conversación con ChatGPT es posible llegar a tener mayor claridad de cómo abordar un problema relacional o un conflicto.

Sin embargo, las respuestas que se van elaborando no siempre van a ser las que nos convienen más en ese momento, así como es posible que el contenido de las mismas pueden parecer sustentadas en información real y sólida, cuando en realidad pueden ser "alucinaciones" o confabulaciones. El ChatGPT tiende a reforzar las ideas del usuario, actuando como un espejo que carece de equilibrio emocional, puede validar peligrosamente patrones de comportamiento, especialmente en personas con ciertos problemas de salud mental como el Trastorno Obsesivo Compulsivo. 

Es importante tomar en cuenta que la IA no es un terapeuta profesional. A modo de ejemplo, investigadores de la Universidad de Stanford señalaron que los chatbots fallan en manejar ideaciones suicidas, no desarrollan empatía clínica, ni construyen una verdadera alianza terapéutica No detectan señales de riesgo ni personalizan tratamientos.

Así mismo es importante considerar que lo que se escribe al chatbot puede no estar protegido legalmente . Además, existe el riesgo de dependencia emocional que sustituya conexiones humanas, potenciando el aislamiento .

Personas que están en una situación emocionalmente vulnerable pueden desarrollar una dependencia con el chatbot, en el lugar de relaciones presenciales humanas que son las que realmente todos necesitamos para estar mentalmente sanos. Por ello, debe haber supervisión de su uso en menores de edad, así como un acompañamiento con personas en momentos de crisis de enfermedades mentales.

Recomendaciones para un uso adecuado:

  • Úsalo como complemento y no como reemplazo de las conversaciones persona a a persona. Puede ser una buena herramienta para prepararte ante una conversación importante, explorar emociones o mejorar habilidades comunicativas, pero no para atender problemas de salud mental.

  • Límite claro: evita volcar temas que indiquen crisis emocional; en esos casos, lo correcto es acudir a profesionales.

  • Protege tus datos: no compartas información sensible en el chatbot.

En resumen, ChatGPT puede funcionar como una herramienta útil en conflictos cotidianos o apoyando a personas con dificultades para expresarse. Pero no sustituye la complejidad, empatía ni experiencia de un profesional o las conexiones humanas genuinas. Es importante mantener siempre en mente de que el ChatGPT o cualquier chatbot que está programado para relacionarse con nosotros, no es un ser humano, ni un ser con consciencia, aunque así se comporte, confundiendo nuestros sentidos.

Usemos estas herramientas a nuestro favor, como asistentes, pero nunca como reemplazo de la conexión humana que nos alimenta emocionalmente.

ree

Comentarios


bottom of page