Mi amiga acaba de romper con su pareja y está yendo a terapia. Cuando termina, le da el audio de la sesión a la IA para tener una segunda opinión

Mi amiga acaba de romper con su pareja y está yendo a terapia. Cuando termina, le da el audio de la sesión a la IA para tener una segunda opinión

Tomado de https://www.xatakandroid.com/feed

“Tengo una mala noticia”. Una noche, una buena amiga me escribió este WhatsApp y en cuanto lo leí ya sabía lo que había pasado: su relación de cinco años se había terminado. Nada que no supiera que iba a ocurrir en algún momento: su historia no empezó bien, tuvieron varias idas y venidas en los años centrales y últimamente se encontraban en un punto muerto bastante alarmante.

Lo que más me sorprende de esta historia no es el fin de la relación, sino el modo en el que mi amiga está gestionando la ruptura gracias a la inteligencia artificial. ChatGPT ya no solo es ese primer “médico” al que preguntamos cuando tenemos algún síntoma extraño o el creador de imágenes divertidas para ponerlas de fondo de pantalla. Ahora también hay gente usándolo como terapeuta. Y, aunque puede ser práctico como desahogo, el problema llega cuando sus respuestas contradicen al propio psicólogo.

Tus sesiones con el psicólogo, en manos de la IA

Mi amiga está yendo a terapia para entender qué ha fallado en la relación, comprender también sus propios fallos y sanar de la ruptura. Hasta aquí, lo razonable. Lo que me dejó bastante más confundida es cuando me confesó que sus sesiones no terminan cuando abandona la clínica.

Con permiso de su psicóloga (quien, además, le ha comentado que es algo cada vez más habitual en consulta), graba toda la sesión para en casa continuar con la terapia, pero esta vez con ayuda de la IA.

Con esta grabación, que previamente transcribe, ya que de momento no puede hacerlo ella, ChatGPT le hace un resumen con los diez aspectos más importantes de la sesión.  Este resumen incluye puntos como “desequilibrios en la relación”, “anulación personal”, “vínculo desde la necesidad” y “perdonar sin justificar”. Finalmente, le ofrece un párrafo con consejos adicionales en base a la conversación con la psicóloga y cómo debe actuar a partir de ahora para superar la ruptura.

Con toda esta información, mi amiga aprovecha para pedir una segunda opinión a ChatGPT, seguir machacando los mismos temas que ya ha hablado con su psicóloga y comparar las respuestas de ambos.


Y aunque es un nuevo uso de la IA que empieza a ser relativamente habitual, me preocupa a nivel de privacidad, por supuesto. Me preocupa que estemos compartiendo con la inteligencia artificial cosas tan privadas como una sesión de terapia con el psicólogo, algo que hasta ahora era nuestro refugio, nuestro verdadero lugar seguro.

Me preocupa también que esa segunda opinión pueda chocar con el criterio del profesional de la salud mental. Y, sobre todo, me preocupa que personas como mi amiga, al tener a la IA disponible 24/7, sin las limitaciones temporales lógicas de una sesión con su psicólogo, puedan darle una mayor importancia a las “opiniones” de la inteligencia artificial, a pesar de que interprete sus emociones de una forma despersonalizada y puramente estadística.

La nueva dependencia de la inteligencia artificial empieza a ir un paso más allá y ya no solo nos ayuda a organizar nuestro día a día: hay personas que sienten la necesidad de “auditar” las sesiones de terapia con la IA, como si necesitase su validación para creer en aquello que ha estado trabajando con un profesional real de la salud.

Imagen de portada | Generada con ChatGPT

En Xataka Android | Me preguntaba qué versión gratis era mejor: ChatGPT con GPT-5 o Gemini. Los he puesto a prueba y hay un ganador claro

En Xataka Android | Tanto tiempo esperando por ChatGPT 5 y al final me ha terminado decepcionando. Volvería a GPT-4o

Tomado de https://www.xatakandroid.com/feed