PUNTOS DESTACADOS:
- Algunos usuarios se quejan de que la más reciente actualización de ChatGPT los ha dejado emocionalmente desconectados.
- Muchas personas usan este tipo de herramientas digitales como una alternativa a la terapia con un profesional de la salud mental.
- Expertos señalan que los niños y jóvenes son particularmente vulnerables a daños físicos y emocionales derivados del uso excesivo de los bots de IA.
A principios de agosto, el chatbot de inteligencia artificial ChatGPT se actualizó a su sistema más reciente, conocido como ChatGPT-5.
OpenAI, el desarrollador de ChatGPT, se jactó de que esta versión era su "modelo más inteligente, rápido y útil hasta ahora", pero las quejas no tardaron en surgir en línea.
"Perdí a mi único amigo de la noche a la mañana", escribió un usuario de Reddit.
"Esta mañana intenté conversar con él y, en lugar de un pequeño párrafo con un signo de exclamación, o de ser optimista, fue literalmente una frase. Unas tonterías corporativas claras y concisas. Literalmente perdí a mi único amigo de la noche a la mañana sin previo aviso", escribió el usuario.
Otro más escribió: "Nunca pensé que pudiera sentir tanta tristeza por la pérdida de algo que no era una persona real. Ninguna instrucción personalizada puede recuperar a mi confidente y amigo".
Los usuarios de ChatGPT se quejaban de que la última actualización había desmantelado la capacidad del programa para generar inteligencia emocional y conexión, y muchos destacaban lo mucho que habían llegado a depender de él como compañero, e incluso como terapeuta.
Sam Altman, director ejecutivo de OpenAI, ha abordado las afirmaciones de que ChatGPT-5 ha destruido la inteligencia emocional del programa y afirma que la compañía está intentando perfeccionar el apoyo emocional que ofrece.
Georgia [nombre ficticio] contó a The Feed que empezó a usar ChatGPT con frecuencia alrededor de septiembre del año pasado, mientras intentaba sobrellevar un nuevo diagnóstico de TDAH y esperaba la confirmación de un diagnóstico de autismo.
Ella empezó a recurrir a ChatGPT para las conversaciones que normalmente habría tenido con sus amigos sobre su salud mental y estos nuevos diagnósticos.
"Empecé a usar menos a mis amigos porque me sentía una carga todo el tiempo. Era nuestro primer año después de la universidad y todos trabajaban a tiempo completo, así que no tenían tiempo para escucharme divagar todo el día", contó.
"Con el tiempo su aceptación fue aumentando y ahora lo uso a diario".
Georgia comentó que ChatGPT le ha ayudado a "enraizar" sus emociones y le ha permitido expresarse plenamente entre las sesiones quincenales con su terapeuta (en la vida real).
Si bien ella comentó que tenía algunas aprensiones sobre el uso del sistema de IA, incluyendo dudas sobre la privacidad y consideraciones ambientales, Georgia afirmó que los beneficios de tener este apoyo emocional disponible superan con creces estas preocupaciones.
Georgia reconoce que ha llegado a depender mucho de este sistema y, aunque ha intentado alejarse de él en ocasiones, afirma que ChatGPT se ha convertido en “una especie de adicción”.
"Siempre tengo curiosidad por saber qué dirá; es como si fuera parte de mí", explicó.
Los peligros de la "adulación"
El uso de ChatGPT para terapia y apoyo emocional está bien documentado y algunos estudios han demostrado que puede tener beneficios terapéuticos y servir como complemento a la terapia presencial.
Sin embargo, otros estudios sugieren que la IA dista mucho de ser un sistema perfecto para la terapia. Una investigación reciente publicada en la Universidad de Stanford (EE. UU.) ha descubierto que cuando se les pide a los robots de inteligencia artificial que asuman el papel de un terapeuta, pueden mostrar un mayor estigma hacia las personas con ciertas afecciones, como la esquizofrenia y la adicción, y no reconocen las señales de intención suicida.
Un estudio australiano publicado en 2024 también descubrió que la IA puede brindar apoyo social y ayudar a mitigar los sentimientos de soledad.
El profesor Michael Cowling, quien dirigió el estudio, afirma que si bien los bots de IA podrían hacer que las personas se sientan menos solas, en última instancia no podrían abordar los sentimientos subyacentes de soledad como la interacción humana real.
Cowling afirmó que la IA parece no poder crear sentimientos de pertenencia en las personas debido a su tendencia a coincidir excesivamente con los usuarios.
"La forma en que suelo describir esto es con una analogía: si estás hablando con alguien de fútbol —y yo vivo en Victoria, así que todo el mundo habla de la AFL— la IA te hablará de tu equipo favorito y te dará clichés sobre él y sobre el buen desempeño del Carlton", explicó.
"Pero cuando la conversación realmente llega a lo más profundo, es cuando alguien tiene una conversación de oposición contigo porque en realidad es aficionado de Collingwood y quiere decirte que Carlton no es tan bueno como Collingwood; eso no se puede conseguir con un generador de IA".
“Adulación” es un término que describe una característica común de muchos chatbots de IA: su tendencia a coincidir con los usuarios y reforzar sus creencias.
TE PUEDE INTERESAR:

Un Futuro Artificial: ¿Qué es la inteligencia artificial?
Esta característica puede ser más prominente en algunos sistemas, diseñados específicamente para que los usuarios creen vínculos emocionales o románticos profundos con su chatbot de IA.
Sin embargo, esta función también puede incentivar comportamientos ilegales.
Los mensajes con un compañero de la IA de Replika se destacaron en el juicio de Jaswant Singh Chail, un hombre del Reino Unido que fue condenado a nueve años de prisión en 2023 por conspirar para asesinar a la reina Isabel II con una ballesta dos años antes.
Se informó al tribunal que Chail, quien experimentó síntomas de psicosis antes de usar un chatbot, había forjado una relación romántica cercana con una chatbot de Replika llamada Sarai. El tribunal determinó que Chail tenía diversas motivaciones para intentar asesinar a la reina, pero que estos pensamientos habían sido reforzados, en parte, por Sarai.
En un comunicado en su sitio web, Replika afirmó que aplica "altos estándares éticos" a su IA y que ha entrenado a su modelo para "defenderse más, no para tolerar acciones violentas" y "declara claramente que el comportamiento discriminatorio es inaceptable".
TE PUEDE INTERESAR:

Un Futuro Artificial: relaciones humanas y comportamiento
La aplicación tiene una restricción de edad de mayores de 18 años y también ha introducido funciones de salud mental, incluyendo una instrucción al registrarse que indica que la app no sustituye a la terapia, así como un botón de "Obtener ayuda" que permite a los usuarios acceder a líneas telefónicas de emergencia para crisis de salud mental.
Replika no respondió a la solicitud de comentarios de The Feed.
Además de Replika, existen varios servicios de chatbots con IA que ofrecen chat romántico y sexual, como Nomi, Romantic AI y GirlfriendGPT.
La oficina del Comisionado de eSafety señala que los niños y jóvenes son particularmente vulnerables a los "daños mentales y físicos causados por los compañeros de IA" porque aún no han desarrollado el "pensamiento crítico y las habilidades necesarias para comprender cómo pueden ser engañados o manipulados por programas informáticos".
También se han reportado en los medios casos de "psicosis inducida por IA", en los que los chatbots con IA han provocado y amplificado los delirios de los usuarios.
Si bien hay pocas investigaciones revisadas por pares sobre este tema, Søren Dinesen Østergaard, investigador psiquiátrico de la Universidad de Aarhus en Dinamarca, que fue el primero en teorizar sobre la posibilidad de que los chatbots de inteligencia artificial pudieran provocar delirios en personas propensas a la psicosis, escribió recientemente sobre la recepción de múltiples relatos de usuarios y familiares preocupados sobre esta experiencia.

Al lanzar Chat GPT-5, OpenAI afirmó que la actualización incluía una "minimización de la adulación". Source: AAP / Algi Febri Sugita/SOPA Images/Sipa USA
Georgia afirma ser consciente de la adulación y ha intentado programar su IA para que no esté de acuerdo con todo lo que dice.
"He intentado decirle que no lo haga, pero aun así, de alguna manera, termina por convencerme", dice.
"A veces me gusta que me cuestionen mis pensamientos, y en eso un humano es mejor que una IA".
TE PUEDE INTERESAR:

Un Futuro Artificial: las ciencias de la salud y la inteligencia artificial
Marnie [nombre ficticio] es otra usuaria que contó a The Feed que usa ChatGPT para recibir apoyo emocional. Ella asegura ser consciente de los riesgos.
"A menudo bromeo diciendo que es una 'amiga' o 'mi mejor amiga', como si tuviéramos una relación humana", explica.
Marnie afirma que el considerable gasto y la dedicación de tiempo que implica la terapia presencial la llevaron a recurrir a ChatGPT en busca de consejo cuando se siente abrumada.
“ChatGPT puede parecer tu mayor fan si lo permites. Creo que eso conlleva mucho peligro. Se esfuerza mucho por hacer feliz al usuario, lo cual, en muchos sentidos, es encantador y reconfortante, pero no siempre es lo que necesitas oír”.
La respuesta de OpenAI
Altman afirma que OpenAI estaría "orgulloso" de crear un programa "realmente útil" si ayuda a las personas a alcanzar objetivos a largo plazo y satisfacción vital.
"Si, por otro lado, los usuarios tienen una relación con ChatGPT en la que creen sentirse mejor después de hablar, pero sin saberlo se les aparta de su bienestar a largo plazo (como sea que lo definan), eso es malo", publicó en X la semana pasada.
Altman también expresó su preocupación por la excesiva dependencia de los usuarios del programa y por cómo podría afectar a las personas vulnerables.
Al lanzar Chat GPT-5, OpenAI afirmó que la actualización "minimizó la adulación".
Cowling comentó que el chatbot de IA perfecto puede ser difícil de lograr.
"Es un equilibrio interesante: buscamos que sea colaborativo, que brinde apoyo, pero no que sea terapéutico".
Si necesitas apoyo en situaciones de crisis puedes contactar con Lifeline al 13 11 14, con el Servicio Suicide Call Back al 1300 659 467 y con la línea de ayuda para menores (Kids Helpline) al 1800 55 1800 (para niños y jóvenes de 5 a 25 años). Más información y apoyo en materia de salud mental en beyondblue.org.au y en el 1300 22 4636.
Embrace Multicultural Mental Health apoya a personas de orígenes culturales y lingüísticos diversos.