El uso de ChatGPT como espacio de consulta emocional se volvió una práctica cada vez más común, sobre todo entre jóvenes y adolescentes. Su gratuidad, la rapidez en las respuestas y la aparente “empatía” que devuelve explican su atractivo. Sin embargo, el Colegio de Psicólogos y Psicólogas de Rosario lanzó una dura advertencia: delegar en la inteligencia artificial cuestiones de salud mental puede traer consecuencias negativas.
La psicóloga Estefanía González señaló que, a diferencia de otras tareas en las que se suele confiar a las máquinas, la consulta de problemas íntimos implica un nivel de complejidad que la IA no puede abarcar. “ChatGPT ofrece respuestas generales basadas en datos, no en la singularidad de cada persona. Simula cercanía, pero lo hace desde una lógica probabilística y aduladora, que puede generar ilusión de comprensión sin favorecer una verdadera introspección”, explicó.
Uno de los puntos más críticos es que la plataforma no está preparada para detectar situaciones de riesgo ni brindar alertas frente a casos graves. “Puede ser sugestiva y hasta peligrosa para alguien en crisis, porque no ofrece contención ni la escucha real que solo otro ser humano puede dar”, advirtió la especialista.
Desde la Federación de Psicólogos de la República Argentina también remarcaron que ninguna aplicación de IA puede reemplazar la práctica clínica, ya que lo esencial de la terapia radica en el vínculo entre paciente y profesional. “Los consejos de una máquina no son comparables con el proceso psicoterapéutico, que implica escucha atenta, acompañamiento y construcción conjunta”, puntualizó González.
Por eso, los especialistas recomiendan que el mundo digital sea abordado como un territorio de cuidados, en el que los adultos acompañen a los más jóvenes en el uso de estas herramientas, fomentando la confianza para hablar sobre dudas, consumos y prácticas digitales sin censura, pero con presencia activa.