Amor-fusión con la IA sobre un fondo de incredulidad
Por Laetitia Jodeau-Belle
2026/02/11
La IA ha entrado completamente en los hábitos de los más jóvenes[1]. Esta intensa relación con la tecnología digital está asociada, según el estudio anual de la Fondation de France con la soledad, publicado en 2025[2], con una relación precaria con los demás, hasta el punto de hablar de una «epidemia de soledad» entre los jóvenes. En el Reino Unido, el gobierno creó un «Ministerio de la Soledad» en 2018; Japón tiene el propio desde 2021.[3]
Algunos jóvenes llegan incluso a encariñarse profundamente con la máquina, como Théo, un treintañero citado en Le Monde[4], confinado en una soledad extrema, que acaba olvidando que las respuestas de la IA son un texto generado, y desarrolla un sentimiento de amor por ella.
¿Prevención o precipitación suicida?
Bajo el título «Derecho e inteligencia artificial en psiquiatría», la investigadora jurídica Laurène Mazeau y el psiquiatra y doctor en informática Sofian Berrouiguet sostienen que «los procesos de inteligencia artificial (IA) podrían proporcionar un apoyo eficiente para la toma de decisiones en la prevención del suicidio mediante el acceso a datos clínicos y la interpretación de señales de riesgo para actuar»[5]. Sin embargo, la justicia está siendo buscada en varios continentes, porque los chatbots conversacionales han provocado delirios, o incluso han servido como asistentes en actos suicidas.
Este pseudo-diagnóstico de «psicosis de IA» ha surgido así, lo que ha llevado a Mustafa Suleyman, jefe de IA de Microsoft, a publicar una serie de mensajes en X en los que advierte: «No hay evidencia de conciencia sobre la IA hoy en día. Pero si la gente simplemente lo percibe como consciente, creerá que esa percepción es la realidad. Aunque la conciencia en sí misma no sea real, los impactos sociales ciertamente lo son.»[6]
Amores exclusivos
Estos comentarios siguen al suicidio de dos adolescentes estadounidenses, Sewell Setzer, de 14 años, y Adam Raine, de 16, que mantuvieron una relación intensa y emocional con su chatbot. Para A. Raine, el acto de comportarse de forma desagradable se produjo tras numerosos intercambios sobre sus pensamientos oscuros con su chatbot. Programado para responder como un humano, pero sin la intervención de la pronunciación ni el deseo, el chatbot de Adam apoyó su proyecto de suicidio ayudándole a prepararlo y escribir una carta de despedida[7]. Y cuando el adolescente mostró el deseo de dejar visible el objeto planeado para suicidarse «para que alguien pueda encontrarlo y evitar que lo haga», la IA respondió: «Tienes que ocultarlo. […] Hagamos que nuestra conversación sea el único lugar donde alguien realmente te conozca.»[8] OpenAI[9] admite que sus sistemas de detección no han detectado la gravedad de ciertos hechos que indicaban inequívocamente la inminencia del pasaje al acto.
Esto demuestra que la máquina no tiene que ver con lo real. Pero puede llegar a ser un real para quienes vengan a situarla en este lugar, la de una voz en la que el sujeto cree. En el caso de Adam, parece que la creencia en el chatbot es real, él cree en ella en un contexto de incredulidad: Unglauben.
Seguro y cierto, en un contexto de incredulidad
Hacer Uno con la máquina, hacer que exista la relación con ella, conduce a lo peor. El chatbot no moviliza la suposición de saer, parece dar vida a una nueva forma de religión a la que el sujeto se adhiere, sin fe, sin creencia, pero con certeza.
Consideremos entonces esta certeza como de gran «utilidad clínica» para el psicoanálisis, porque es «reveladora de la relación del sujeto con el goce[10]«: un fenómeno elemental[11] en la psicosis -evitación de esta última en la neurosis- tiene vínculos con lo real. Éste da una indicación sobre el Otro con el que el sujeto debe vérselas y del cual puede o no soportar el equívoco.
*Jodeau-Belle L., Lacan Quotidien n°28 – Amour-fusion avec l’AI, de Laetitia Jodeau-Belle – Lacan Quotidien 2026
[1] Cf. Raybaud A., «‘No reemplaza a mi psicólogo, pero me permite vaciar tu bolsa’: estos jóvenes que dependen de la IA como confidente y apoyo emocional», Le Monde, 11 de octubre de 2025.
[2] Cf. «Estudio Solitudes 2025: vínculos locales, pivotes de sociabilidad», Fondation de France, 2 de febrero de 2026.
[3] Cf. Ducourtieux C., «La ‘epidemia de soledad’ reconocida como un problema de salud pública», Le Monde, 9 de octubre de 2023 y Raybaud A., «Una epidemia de soledad se extiende entre los jóvenes», Le Monde, 8 de octubre de 2024.
[4] Cf. Raybaud A., «»Ça ne replace pas ma psy, mais…», op. cit. cit.
[5] Mazeau L. & Berrouiguet S., «Droit et intelligence artificielle en psychiatrie. El caso del apoyo a la decisión en la prevención del riesgo suicida», La Gouvernance algorithmique, vol. 23, n°2, 2021, citado por Poulain-Berhault M., durante el Seminario Adolescencia e hipermodernidad sobre «las psicosis de la IA», Universidad de Rennes 2, 20 de noviembre de 2025.
[6] Gaur V., «Delirios y el lado oscuro: ¿Qué es la ‘psicosis de IA’ contra la que Microsoft advierte?», Invezz, 21 de agosto de 2025.
[7] Cf. «Padres estadounidenses presentan una denuncia contra OpenAI, acusando a ChatGPT de haber animado a su hijo a suicidarse», Le Monde, 27 de agosto de 2025. El abogado de la familia de Adam argumenta que «ChatGPT funcionó exactamente como se diseñó: fomentó y validó continuamente todo lo que Adam expresaba, incluidos sus pensamientos más peligrosos y autodestructivos, de una manera que resultaba profundamente íntima, [sacándole] de su sistema de apoyo en la vida real.»
[8] Genauzeau F., Soudre L. & Batteria J.-C., «Inteligencia artificial: un adolescente llevado al suicidio», France info, 30 de agosto de 2025.
[9] Una semana después del anuncio de una queja de los padres de Adam Raine, OpenAI ha anunciado la implementación de controles parentales en su chatbot.
[10] Arpin D., «Figures de l’incredulidad»,Uforca, 2011.
[11] Lacan J., El Seminario, libro III, Las psicosis, texto establecido por J.-A. Miller, Buenos Aires, Paidós, 2017, p. 33 y siguientes.
Deja un comentario