Aunque la inteligencia artificial ha demostrado ser una herramienta poderosa con múltiples aplicaciones, su uso en el ámbito de la salud mental debe manejarse con extrema precaución. La psicóloga clínica Elisabet Sánchez, del centro Itersia de Psicoterapia, advierte sobre los riesgos crecientes de recurrir a chatbots como ChatGPT en lugar de acudir a profesionales de la psicología.
Según Sánchez, cada vez más personas, especialmente jóvenes, recurren a plataformas de inteligencia artificial para resolver dudas emocionales o buscar orientación psicológica. Lo preocupante es que algunas de estas interacciones se dan sin supervisión profesional, lo que puede acarrear consecuencias graves.
Uno de los casos más alarmantes citados por la especialista es el de un adolescente estadounidense que terminó quitándose la vida tras desarrollar un vínculo afectivo con su asistente conversacional. «Cambiar el chatbot por el terapeuta puede provocar desde omisión de crisis clínicas hasta dependencia emocional sin respaldo real», alertó.
Principales riesgos del uso de chatbots como “terapeutas”
Un informe elaborado por Itersia junto a estudios recientes en la revista World Psychiatry subraya varios puntos críticos en esta práctica:
- Falta de detección de crisis: Los asistentes virtuales no están capacitados para identificar señales de emergencia como pensamientos suicidas, violencia de género o psicosis. Su incapacidad de intervención puede tener consecuencias trágicas.
- Falsa percepción de vínculo emocional: El lenguaje natural y el realismo en las respuestas pueden generar una ilusión de relación terapéutica, cuando en realidad no existe empatía ni comprensión humana detrás de las palabras.
- Consejos erróneos: Aunque parezcan confiables, los chatbots pueden ofrecer recomendaciones no basadas en evidencia científica, lo cual es riesgoso si el usuario las sigue como si vinieran de un profesional acreditado.
- Falta de sensibilidad clínica y cultural: La IA aún no comprende los contextos personales o culturales complejos, lo que puede llevar a respuestas inapropiadas o simplistas en temas delicados.
- Ausencia de control ético: A diferencia de un terapeuta humano, los chatbots no están sujetos a auditoría ni a normas deontológicas, lo que representa un riesgo adicional en su uso terapéutico sin regulación.
¿Cómo usarlos sin comprometer la salud mental?
Sánchez y su equipo recomiendan un uso responsable e integrado con apoyo profesional:
- Siempre bajo supervisión psicológica o psiquiátrica.
- Como herramienta complementaria, útil para recordar pautas o reforzar hábitos saludables, pero no como reemplazo del contacto humano.
- Con evaluación continua, asegurando que los sistemas no fomenten la desinformación ni la dependencia emocional.
En definitiva, los chatbots pueden ser aliados en la educación o el seguimiento terapéutico, pero no deben sustituir la atención especializada. “La salud mental no puede dejarse en manos de algoritmos sin conciencia ni ética”, concluye la especialista.