Riesgos del uso de ChatGPT como sustituto de psicoterapia en niños y adolescentes.

20/08/2025

Riesgos del uso de ChatGPT como sustituto de psicoterapia en niños y adolescentes.

20/08/2025

En los últimos años, la inteligencia artificial ha comenzado a formar parte de la vida cotidiana de niños, niñas y adolescentes. Herramientas como ChatGPT o Gemini son usadas para hacer tareas, resolver dudas y, en algunos casos, también como lugar donde expresar sus emociones y malestar. Pero ¿qué ocurre cuando estas herramientas comienzan a ocupar el lugar de un terapeuta?

Existen algunos riesgos de considerar a la IA como un sustituto de un espacio terapéutico, entre los que podríamos nombrar:

  • Contención emocional limitada: aunque los modelos de IA pueden generar respuestas  que simulan ser empáticas, no tienen conciencia, afecto real ni pueden establecer un vínculo terapéutico genuino. No existe una alianza terapéutica real, componente fundamental en un espacio terapéutico, ni tampoco iniciativa propia de la IA para acompañar momentos difíciles a partir de mensajes espontáneos.
  • Ausencia de evaluación clínica: una IA no puede realizar una evaluación diagnóstica completa, más allá de lo referido explícitamente (y quizás sesgado) de quien hace uso de ella. Detectar signos de riesgo (como ideación suicida, autolesiones, etc) es un proceso complejo, del mismo modo que intervenir en una crisis, algo para lo que la IA no ha sido programada.
  • Falta de contexto en el algoritmo: las respuestas generadas por IA se basan en patrones de lenguaje, no en una comprensión profunda de la historia personal del adolescente, su contexto familiar, perfil neurocognitivo, cultura, etc. Esto puede llevar a consejos poco adecuados o hasta contraproducentes. Además, algunos modelos de IA como chatGPT suelen modificar progresivamente sus respuestas en base a los datos que almacenan del usuario, lo que puede generar un efecto de “sesgo” que refuerce interpretaciones negativas, ideas paranoides, etc. 
  • Estimulación de conductas evitativas: para algunos adolescentes con dificultades en habilidades sociales o ansiedad social, hablar con una IA puede parecer más fácil que hacerlo con un adulto o terapeuta. Si bien esto puede ser una primera fuente de expresión, también puede reforzar el aislamiento.
  • Privacidad y exposición: aunque muchas herramientas de IA aseguran confidencialidad, los adolescentes no siempre comprenden los límites de seguridad digital. Existe el riesgo de compartir información sensible sin entender sus implicancias. Además, las regulaciones legales de ética profesional no tienen un impacto protector frente a el uso inadecuado de esa información ya que no se trata de un vínculo terapéutico reconocido y regulado por la ley.

Por todo esto resulta fundamental estar atentos, informar y problematizar con adolescentes sobre el uso responsable de este tipo de tecnologías, sin demonizar las mismas, pero entendiendo sus limitaciones y el riesgo de un uso inadecuado. Con un uso correcto y critico pueden traer grandes beneficios, e incluso ser una puerta de entrada y una herramienta útil que enriquezca los espacios terapéuticos.

Más contenidos de interés

Fortnite: ¿Genera adicción? ¿Es peligroso?

Fortnite: ¿Genera adicción? ¿Es peligroso?

¿Es peligroso que los niños jueguen Fortnite? Este fenómeno masivo que ha ganado gran popularidad entre niños y adolescentes se trata de un juego multiplataforma online de carácter gratuito (aunque cuenta con opciones de pago para mejorar la personalización). El...