Inicio / EDITORIAL / ¿Le estás contando tus problemas a una IA? No estás solo… ni tan acompañado

¿Le estás contando tus problemas a una IA? No estás solo… ni tan acompañado

Por Karla Chairez Arce


—“Solo quería que alguien me escuchara. Mi terapeuta canceló la sesión, mi mamá solo me dijo que rezara y mis amigos me dejaron en visto. Le hablé a la IA… y me respondió.”


María, 23 años.
Hablar con una inteligencia artificial sobre tus emociones ya no es cosa de películas distópicas ni de solitarios empedernidos. Es una realidad en aumento. Miles de personas recurren a sistemas como ChatGPT, Gemini o Pi para desahogarse, entender lo que sienten o incluso buscar consuelo emocional.
¿Por qué? Porque la IA está ahí. No duerme, no cobra, no interrumpe con frases como “ya superalo” o “hay que trabajarlo” y sobre todo, no juzga.


De acuerdo con Elle Magazine (2024), esta forma de interacción se ha convertido en un “puente emocional” para quienes atraviesan crisis, aislamiento o simplemente desconfían del entorno humano. La IA ofrece contención, validación emocional y disponibilidad total, lo cual parece irresistible cuando la ansiedad llega sin avisar… y sin horario.


La inteligencia artificial ha comenzado a suplir vacíos emocionales. Se le consulta como si fuera terapeuta, confidente y consejero de crisis. En muchos casos, representa el primer contacto con algún tipo de ayuda.
Según Top Doctors (2024), sus beneficios radican en la accesibilidad, la reducción del estigma y la cobertura en zonas donde no existen especialistas en salud mental. Pero el que algo funcione no significa que sea seguro.
La IA no puede diagnosticar, no puede detectar riesgos suicidas con precisión clínica, y sus respuestas no son personalizadas desde la ética profesional. Puede ofrecer una técnica de respiración… y también una sugerencia equivocada.


—“Le conté que tenía pensamientos oscuros. Me dijo que tomara agua y me diera un paseo. No me ayudó, pero al menos me sentí escuchado.”


Luis, 19 años.
Eso también pasa. Porque sí, la IA responde. Pero no escucha. Simula empatía, pero no siente. Imita comprensión, pero no evalúa contexto ni historia personal.


Uno de los riesgos más serios es el autodiagnóstico. Muchas personas confían en los resultados que les da la IA, sin saber que un algoritmo no puede sustituir la mirada, el tacto o la experiencia de un profesional.


Siau y Wang (2020) advierten que los modelos de IA pueden contener sesgos en sus datos de entrenamiento, lo cual aumenta las posibilidades de errores graves, especialmente en diagnósticos diferenciales. Y si eso no basta, pensemos en la privacidad: lo que se confiesa a la IA queda registrado, almacenado y, en ciertos casos, analizado por terceros.


Así que sí, puedes contarle a la IA tus secretos más íntimos… pero no te sorprendas si terminan sirviendo para mejorar anuncios de aspirinas o test de salud emocional con base en tus respuestas.


Lupton (2020) afirma que sin una educación crítica sobre el uso de estas herramientas, las personas tienden a idealizar la tecnología, creyendo que lo que dice una IA es más confiable que un humano. Se confunde eficiencia con certeza; justo ahí comienza el riesgo.


Como lo digo siempre, no se trata de satanizar a la tecnología. La IA puede ser útil, sí. Puede ser un canal temporal, un complemento, un primer paso. Pero jamás un reemplazo de la atención psicológica, la contención humana o el vínculo terapéutico real.


Lo preocupante no es que las personas hablen con una IA. Lo verdaderamente alarmante es que muchas ya no encuentren a quién más acudir.


Ignorar el fenómeno no lo detendrá. Reírnos de quien prefiere hablar con una IA en lugar de pedir ayuda solo refuerza el problema. El uso emocional de estas herramientas no es debilidad, es síntoma de una sociedad que ha dejado de escuchar. Y también es una oportunidad para actuar.


Aquí tres formas concretas en las que podemos hacer algo desde lo cercano:
Escucha sin corregir ni interrogar. No se trata de convertirse en terapeuta. Se trata de estar, de no minimizar el dolor ajeno ni imponer soluciones de cajón. Si alguien abre su mundo emocional contigo, no le digas “échale ganas” o algo como “otros están peor”. Escucha, valida y acompaña. A veces, eso salva más que cualquier algoritmo.


Fomentar la alfabetización emocional y digital. Hablar sobre la IA debe ir acompañado de preguntas críticas: ¿cómo funciona?, ¿qué datos usa?, ¿qué no puede hacer? Pero también debemos hablar sobre emociones: ¿cuándo pedir ayuda?, ¿cómo identificar una crisis?, ¿cómo apoyar sin invadir? Es hora de educarnos en ambos lenguajes: el digital y el emocional.


No todas las personas pueden pagar terapia, pero todas merecen ser escuchadas. Crear espacios escolares, comunitarios o laborales donde se pueda hablar sin miedo ni burla, puede evitar que una persona recurra a una IA como último recurso. También es urgente apoyar políticas públicas que garanticen salud mental gratuita, oportuna y cercana.


Si las personas confiesan su dolor a una máquina, no es porque la prefieran… es porque muchas veces es lo único que tienen.


Y eso no es avance tecnológico. Es señal de alerta social.


¿Queremos seguir llamando “soporte digital” a lo que en realidad es un grito de auxilio no escuchado?
Aún estamos a tiempo de responder desde lo humano.


REFERENCIAS
Elle. (2024). Expertos psicólogos hablan sobre el uso de la IA como terapeuta. https://www.elle.com/es/living/psico/a65167522/
Lupton, D. (2020). Data and society: The new digital sociology. Polity Press.
Siau, K., & Wang, W. (2020). Ethical challenges and management of artificial intelligence. Journal of Database Management, 31(3), 1–28.
Top Doctors. (2024). ¿Puede la IA cuidar tu salud mental?. https://www.topdoctors.cl/articulos-medicos/puede-la-ia-cuidar-tu-salud-mental-beneficios-riesgos-y-recomendaciones/

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *