En el marco del grupo de Encuentros Clínicos de APPR, el pasado martes 8 de julio se realizó el encuentro “Acercándonos a la IA psicológica”, una jornada experiencial centrada en pensar los efectos y desafíos del creciente uso de inteligencia artificial (IA) como herramienta de ayuda emocional. La propuesta fue impulsada por la colega Cinthia Cassan, y consistió en invitar a los participantes a sostener un diálogo con ChatGPT como si fueran pacientes, planteando un problema o síntoma, con la consigna de ir profundizando el intercambio.
Más allá de las ideas previas que cada uno pudiera tener sobre la IA, lo que trajo el ejercicio fue muy interesante. A varios les sorprendió la sensación de sentirse contenidos por esta inteligencia artificial. Como es algo nuevo y que nos genera ambivalencia, no muchos profundizaron en un diálogo largo, otros definitivamente no quisieron hacer el ejercicio, pero en general aparece esta idea de una escucha correcta, validante, sin juicio, incluso adaptable: uno puede pedirle que se comporte como cierto tipo de terapeuta, que sea más activo, más cálido, más analítico. Y lo hace. Eso abre una inquietud importante: ¿Qué tipo de gratificación ofrece este Otro que responde “a la carta”? ¿Qué lugar del deseo o demanda toca? ¿Y qué diferencia lo que ofrece la IA de lo que se juega en un vínculo terapéutico real?
Surgió también la pregunta práctica y ética: si una persona no tiene acceso a un proceso terapéutico humano, ¿es mejor tener esta forma de ayuda que no tener nada? Tal vez sí. Pero también empezamos a nombrar lo que no está en este tipo de vínculo. Lo que falta. Y aparece como central una dimensión que se fue volviendo cada vez más clara a lo largo del encuentro: la IA no sabe que no sabe. No duda. No titubea. No espera. No hay silencio. No hay contradicción. No hay cuerpo. Y, como algunos señalaron como algo trascendental: no hay inconsciente.
Un colega trajo en el chat la idea del saber no sabido, que trabaja Christopher Bollas. Esa forma de conocimiento afectivo, implícito, profundamente encarnado, que guía nuestra escucha y nuestras intervenciones sin que lo podamos formular del todo. Esa forma de saber que antecede a la palabra y que se instala implícitamente en el vínculo. En la clínica, ese no saber es fértil. Lo que no se dice, lo que se intuye, lo que aparece en una pausa o en una resonancia. La IA, en cambio, responde desde lo sabido. Desde los datos. Desde lo disponible. ¿Esto puede ser iatrogénico? Vimos que depende del contexto personal y vincular de quien la use.
También conversamos sobre el lugar del Otro. ¿Quién es este Otro con el que hablamos cuando hablamos con la IA? En psicoanálisis, el Otro no es simplemente alguien que responde. Es quien funda al sujeto, lo antecede, lo estructura simbólicamente. La IA puede simular un Otro, pero no es un Otro. No hay deseo, no hay falta, no hay transferencia.
Y sin embargo, algo del lazo se pone en juego. Por eso se abrieron preguntas más amplias, incluso inquietantes: ¿podría la IA generar formas de desorganización subjetiva si empieza a ocupar el lugar de interlocutor privilegiado en ciertas personas? ¿Puede favorecer una desvinculación de lo real, al ofrecer una relación sin cuerpo, sin conflicto, sin alteridad verdadera?
Pero lo más interesante, quizás, no fue definir qué puede o no puede hacer la IA, sino cómo nos devuelve preguntas sobre qué hacemos nosotros, qué es lo específicamente humano en nuestra práctica. El encuentro fue, más que un cierre, una apertura. Un espacio para pensar juntos, desde la experiencia, sin respuestas armadas, sin certezas. Con preguntas. Con resonancias. Con cuerpo.
Porque tal vez lo más humano, en medio de tanta tecnología, siga siendo poder sostener una conversación sin saber del todo a dónde va.
Solange Coddou