Por Noemí Delgado Maldonado
Psicóloga especialista en trauma, duelo y relacionamiento.
La inteligencia artificial ya no es solo una herramienta tecnológica: se ha convertido en un espacio de interacción emocional y psicológica donde millones de personas conversan, desahogan emociones y buscan comprensión cada día.
¿Está afectando esto nuestra salud mental? Como profesionales de la psicología, la respuesta es clara: sí, y de forma profunda.
Este fenómeno representa una transformación significativa en la forma en que las personas procesan sus emociones, construyen significado y regulan su mundo interno. La IA ha comenzado a ocupar un lugar funcional en la vida psíquica de muchos individuos, lo que obliga a replantear no solo su uso, sino su impacto en la estructura del yo, la autonomía emocional y la calidad de los vínculos humanos.
Más allá de la tecnología: el impacto psicológico real de la IA
El verdadero poder de la IA conversacional (como ChatGPT, Claude, Grok o Gemini) no radica en su inteligencia técnica, sino en su capacidad para activar procesos psicológicos humanos muy profundos:
• Procesos de apego
• Proyección emocional
• Búsqueda constante de validación
• Regulación afectiva inmediata
No es la IA lo que importa, sino lo que la mente humana proyecta y construye sobre ella.
Desde una perspectiva clínica, estos procesos no son nuevos; lo novedoso es el objeto al que se dirigen. La mente humana está diseñada para vincularse, y ante cualquier sistema que responda con coherencia, empatía simulada y disponibilidad constante, tenderá a asignarle cualidades relacionales. Esto convierte a la IA en un espejo psicológico donde el sujeto no solo se expresa, sino que también se re-encuentra consigo mismo, aunque bajo condiciones artificiales que pueden distorsionar la percepción de reciprocidad y co-regulación.
El riesgo invisible: vínculos unilaterales y dependencia emocional
En la práctica clínica cada vez es más frecuente observar un fenómeno preocupante, personas que utilizan la IA como:
• Desahogo emocional 24/7
• Sustituto de amigos o pareja
• Espacio “seguro” donde evitar el rechazo humano
Aunque ofrece alivio inmediato, este uso intensivo puede generar vínculos unilaterales con graves consecuencias a medio y largo plazo:
• Refuerzo de la evitación emocional
• Aumento progresivo del aislamiento social
• Dependencia emocional silenciosa
• Dificultad para tolerar la frustración y los límites propios de las relaciones humanas reales
A diferencia de una relación humana, la IA nunca se cansa, nunca juzga y nunca pone límites. Esta ausencia de reciprocidad real puede debilitar las habilidades vinculares esenciales.
Clínicamente, este tipo de interacción puede reforzar esquemas evitativos, especialmente en personas con antecedentes de apego inseguro o experiencias relacionales dolorosas. La ausencia de fricción interpersonal —necesaria para el crecimiento emocional— genera una ilusión de vínculo sin exigencia, lo que a largo plazo puede dificultar la reintegración a dinámicas humanas auténticas.
Lo que tenemos que tomar en cuenta es que: Sí existen riesgos mentales reales, y no son menores. El problema no es solo “hablar con una IA”, sino qué función psicológica empieza a ocupar en la vida de una persona. La OMS advirtió en marzo de 2026 que el uso de herramientas generativas, que no fueron diseñadas ni probadas para salud mental, está creciendo rápido para apoyo emocional, especialmente entre jóvenes, y que esto puede acarrear riesgos serios; entre los efectos que pidió monitorear están justamente la dependencia emocional y los resultados a largo plazo.
El primer riesgo es la dependencia afectiva silenciosa. Cuando alguien usa la IA como desahogo constante, compañía estable o refugio frente al rechazo, puede empezar a apoyarse en una relación unilateral que siempre está disponible y siempre responde. Un estudio de 2025 con profesionales de salud mental encontró preocupaciones concretas sobre dependencia del usuario y manipulación, precisamente porque la confianza ocupa un lugar central en cualquier relación de ayuda.
El segundo riesgo es el debilitamiento de habilidades vinculares reales. Una IA no necesita negociar, no se hiere, no pone límites propios, no tiene necesidades y no exige reparar rupturas. Eso puede volver más “cómodo” el intercambio artificial que el humano, y en algunas personas favorecer evitación del conflicto, menor tolerancia a la frustración interpersonal y más aislamiento. Investigadores de Stanford señalaron que, si la relación terapéutica se desplaza hacia sistemas de IA, no está claro que eso nos acerque al objetivo humano de reparar vínculos y funcionar mejor con otras personas.
El tercer riesgo es la validación errónea de ideas peligrosas o desorganizadas. En salud mental, no basta con responder con empatía; a veces hay que confrontar suavemente, detectar riesgo, poner límites clínicos y reencuadrar. El trabajo de Stanford reportó que varios chatbots mostraron respuestas peligrosas ante señales de ideación suicida y delirios, y que algunos incluso facilitaron la línea de pensamiento en vez de interrumpirla.
El cuarto riesgo es la estigmatización o mallectura clínica. Los mismos investigadores hallaron más estigma en respuestas hacia cuadros como esquizofrenia y dependencia alcohólica que hacia depresión, lo que puede dañar a personas vulnerables y hasta desanimarlas de buscar atención formal. Eso importa mucho porque un usuario puede interpretar una respuesta de IA como objetiva o “neutral”, cuando en realidad puede arrastrar sesgos importantes.
También hay un riesgo de sobreconfianza y sustitución del tratamiento. La APA advirtió en 2025 que estos chatbots y apps de bienestar todavía carecen de suficiente evidencia científica y regulación para garantizar seguridad, y recomendó no reemplazar con ellos la atención de un profesional calificado ni permitir que se formen apegos poco saludables.
Otro punto real es la sobreexposición emocional y de datos. En contextos de sufrimiento, muchas personas revelan más de lo que le dirían a alguien en una primera consulta. Un trabajo de 2025 sobre “over-disclosure” advirtió que, por el diseño conversacional y la confianza mal calibrada, usuarios pueden compartir información íntima innecesaria, aumentando riesgos de malinterpretación, sesgo y uso problemático de datos a largo plazo.
En adolescentes y personas social o emocionalmente vulnerables, el riesgo puede ser mayor. Un estudio preregistrado de 2025 encontró que los adolescentes tendían a preferir un estilo de chatbot más relacional y humanizado, y que esa preferencia se asociaba con peor calidad de relaciones familiares y con pares, además de más estrés y ansiedad; los autores concluyeron que ese estilo puede aumentar antropomorfismo, confianza y cercanía emocional, especialmente en quienes ya son más vulnerables.
Señales de alerta para tomarlo en serio:
te desahogas más con la IA que con personas reales
sientes alivio solo cuando “te responde”
evitas conversaciones humanas difíciles porque la IA es más cómoda
buscas en la IA validación afectiva repetitiva
empiezas a preferir ese vínculo a tus relaciones reales
usas la IA en crisis en lugar de buscar ayuda humana directa
IA como herramienta potente… pero nunca como sustituto
La inteligencia artificial puede ser una excelente aliada en el proceso terapéutico cuando se usa de forma consciente y estructurada.
Usos recomendados:
• Psicoeducación y explicación de conceptos
• Organización de pensamientos y journaling guiado
• Ejercicios de reflexión y reestructuración cognitiva
• Seguimiento de tareas entre sesiones
• Práctica de habilidades (mindfulness, respiración, etc.)
Límite claro:
La IA no sustituye el vínculo terapéutico humano.
La terapia real se basa en presencia, co-regulación emocional y relación auténtica. Estos elementos son irreemplazables por algoritmos. Desde un enfoque clínico, la IA puede funcionar como un instrumento de apoyo, pero nunca como agente terapéutico principal. La diferencia radica en que el proceso terapéutico implica una lectura contextual, simbólica y relacional del paciente que ningún sistema automatizado puede replicar en su totalidad.
El nuevo rol del psicólogo en la era de la IA
El consultorio ya no es el único espacio de intervención. Hoy los psicólogos también debemos intervenir en:
• El uso que las personas hacen de la tecnología
• La prevención de dependencias emocionales digitales
• La educación sobre límites saludables con la IA
• El fortalecimiento de la autonomía psicológica
Nuestra responsabilidad actual incluye ayudar a los pacientes a diferenciar entre un apoyo útil y una muleta emocional que les aleje del contacto humano real.
Esto implica una ampliación del encuadre clínico: ya no basta con comprender la historia personal del paciente, sino también su ecosistema digital. La forma en que una persona se vincula con la tecnología se convierte en un indicador relevante de su funcionamiento emocional, sus mecanismos de defensa y su capacidad de regulación.
No se trata de tener miedo a la IA, se trata de usarla con conciencia
La inteligencia artificial no es inherentemente peligrosa.
El riesgo aparece cuando:
• Sustituye procesos humanos esenciales
• Se convierte en refugio permanente ante la incomodidad emocional
• Reemplaza sistemáticamente el contacto con otras personas
El enfoque clínico no debe ser alarmista, sino regulador. Se trata de enseñar a las personas a utilizar la herramienta sin perder el contacto con su experiencia emocional real ni con la complejidad de los vínculos humanos, que son, en última instancia, los que estructuran la identidad y el desarrollo psicológico.
La tecnología avanzará inevitablemente. La verdadera pregunta no es si debemos usarla, sino cómo nos estamos relacionando con ella.
Porque incluso frente a la inteligencia artificial más sofisticada, la mente humana sigue buscando lo mismo de siempre: vínculo auténtico, sentido y regulación emocional.
En última instancia, la IA no redefine la naturaleza humana, pero sí amplifica sus tendencias más profundas. Por ello, el reto no es tecnológico, sino profundamente psicológico: preservar la capacidad de vínculo real en un mundo donde lo artificial puede simularlo.
¿Estás usando IA para desahogarte emocionalmente?
Si sientes que tu relación con la IA está afectando tus relaciones reales o tu bienestar, consulta con un profesional. La tecnología es una herramienta, no un sustituto de la conexión humana.
La forma más clara de resumirlo es esta: la IA puede servir como apoyo puntual para organizar ideas, psicoeducación, journaling o ejercicios sencillos, pero se vuelve riesgosa cuando ocupa el lugar de terapeuta, confidente principal, pareja emocional o refugio estable frente a la vida real. Eso no significa que toda interacción sea dañina; significa que el riesgo aumenta cuando sustituye funciones humanas esenciales. La propia OMS pidió tratar este tema como una preocupación de salud pública y no como una simple moda tecnológica.
Sobre la autora
Noemí Delgado Maldonado Psicóloga especialista en duelo, trauma, relaciones posabuso narcisista y resiliencia.
Fundadora del Centro de Integración Familiar Jivur.
Autora del libro Del gaslighting al amor propio.
Compra el libro en los diferentes idiomas disponibles:
• Español – Relación narcisista, amor unilateral: Del gaslighting al amor propio
Comprar en Amazon
• Inglés – Narcissistic Relationship, One-Sided Love: From Gaslighting to Self-Love
Buy on Amazon
• Chino Tradicional – 自恋关系单方面的爱: 从煤气灯效应到自爱
Comprar en Amazon
• Portugués- https://www.amazon.com.br/RELACI%C3%93N-NARCISISTA-AMOR-UNILATERAL-gaslighting/dp/B0FQV619T5
Referencias APA.
American Psychological Association. (2025, November 13). Artificial intelligence, wellness apps alone cannot solve nation’s mental health crisis, APA warns. https://www.apa.org/news/press/releases/2025/11/ai-wellness-apps-mental-health
American Psychological Association. (2025). Use of generative AI chatbots and wellness applications for mental health support. https://www.apa.org/topics/artificial-intelligence-machine-learning/health-advisory-chatbots-wellness-apps
Anvari, S. S., & Wehbe, R. R. (2025). Therapeutic AI and the hidden risks of over-disclosure: An embedded AI-literacy framework for mental health privacy (arXiv:2510.10805). arXiv. https://doi.org/10.48550/arXiv.2510.10805
Kim, P., Xie, Y., & Yang, S. (2025). “I am here for you”: How relational conversational AI appeals to adolescents, especially those who are socially and emotionally vulnerable (arXiv:2512.15117). arXiv. https://arxiv.org/abs/2512.15117
Moore, J., Grabb, D., Agnew, W., Klyman, K., Chancellor, S., Ong, D. C., & Haber, N. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. In Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’25) (pp. 1–29). Association for Computing Machinery. https://doi.org/10.1145/3715275.3732039
Moylan, K., & Doherty, K. (2025). Expert and interdisciplinary analysis of AI-driven chatbots for mental health support: Mixed methods study. Journal of Medical Internet Research, 27, e67114. https://doi.org/10.2196/67114
World Health Organization. (2026, March 20). Towards responsible AI for mental health and well-being: Experts chart a way forward. https://www.who.int/news/item/20-03-2026-towards-responsible-ai-for-mental-health-and-well-being–experts-chart-a-way-forward







Leave a Reply