Un informe de la organización no gubernamental Plan Internacional revela que una de cada cuatro jóvenes españolas de entre 17 y 21 años utiliza un sistema de inteligencia artificial (IA) como confidente. Las razones son comprensibles: la IA siempre responde, no juzga y ofrece el tipo de atención que muchas personas no encuentran en su entorno inmediato.
Este fenómeno, que puede parecer inofensivo o incluso positivo a primera vista, plantea profundas interrogantes sobre el futuro de la salud mental y la ética tecnológica. Los sistemas conversacionales actuales, como ChatGPT o Replika, son capaces de reconocer patrones del lenguaje asociados a estados emocionales. Por ejemplo, si detectan tristeza, ansiedad o desesperanza, responden con mensajes de consuelo o apoyo.
Técnicamente hablando, estos modelos aprenden a predecir la siguiente palabra según el contexto, pero su efecto psicológico es muy real. Nuestros cerebros responden a las interacciones con la inteligencia artificial de manera similar a otro ser humano: una voz digital o un texto empÔtico activa los mismos circuitos neuronales de apego y recompensa.
Pero la verdad es que estos sistemas no sienten: sólo fingen sentir, y esa simulación puede provocar una ilusión de comprensión que resulta confusa. En el contexto de una vulnerabilidad particular como la soledad no deseada o el sufrimiento emocional, esta ilusión puede aliviar… o crear adicción.
Nuevos riesgos de la mente digital
La IA aplicada a la salud mental encierra una paradoja: cuanto mÔs humana parece, mÔs fÔcil nos resulta olvidar que no lo es. De esta confusión surgen tres riesgos principales.
El primero de ellos es la dependencia emocional. Algunos usuarios forman vĆnculos emocionales con las mĆ”quinas que no pueden ser correspondidos de ninguna manera. La interacción regular con la IA puede reemplazar gradualmente el contacto humano y empobrecer la capacidad de empatĆa y autorregulación emocional.
AdemĆ”s, es posible desarrollar ansiedad tecnológica https://doi.org/10.2147/PRBM.S440889. Vivir bajo la influencia constante de sistemas que prescriben cómo sentir o quĆ© pensar puede conducir a una pĆ©rdida de autonomĆa y a una sensación de control reducido sobre la vida emocional.
Finalmente, corremos el riesgo de deuda cognitiva DOI:10.48550/arKsiv.2506.08872. Al delegar el pensamiento o la introspección a una mÔquina, perdemos el hÔbito de pensar y trabajar con nuestras emociones. Asà como el GPS debilita nuestra memoria espacial, la IA puede debilitar nuestra memoria emocional.
A todo esto se suman sesgos algorĆtmicos. Las IA aprenden de datos reales, pero estas bases de datos suelen reproducir las mismas desigualdades de gĆ©nero, raciales y culturales. Sin un mecanismo correctivo, esto puede provocar una respuesta aparentemente neutral para reforzar los estereotipos o trivializar las experiencias de dolor psicológico.
Y lira también: la inteligencia artificial refleja prejuicios y desigualdades sociales: asà es como podemos mejorarla
IA espejo emocional
Recientemente, el Instituto de Ćtica en Inteligencia Artificial de la Universidad TĆ©cnica de Munich publicó un artĆculo en el que informa que los chatbots de IA necesitan protección emocional. En Ć©l, los autores advierten de que las interacciones prolongadas con la inteligencia artificial pueden alterar la regulación emocional del usuario e incluso provocar estados de adicción o idealización del sistema.
Proponen la introducción de "salvaguardas emocionales obligatorias", como la identificación clara de la IA como no humana, la implicación automÔtica de recursos de ayuda psicológica en situaciones de riesgo o la revisión ética de los datos emocionales que recopilan estos sistemas.
El mensaje es claro: la inteligencia artificial no es neutral. Refleja las intenciones, valores y prejuicios de quienes lo diseƱan. En el campo de la salud mental, donde las emociones son frƔgiles y el sufrimiento real, esto adquiere una relevancia Ʃtica decisiva.
De la amenaza al potencial
A pesar de estos riesgos, la IA puede ser un gran aliado si se utiliza bien. Puede detectar signos tempranos de depresión o ansiedad mediante el anÔlisis del lenguaje natural gracias al anÔlisis de datos en una escala mucho mÔs allÔ del alcance de la mente humana. También puede facilitar el acceso a la atención psicológica en zonas rurales o de bajos recursos; ademÔs de servir como herramienta educativa para mejorar la metacognición, es decir, la capacidad de reflexionar sobre el propio pensamiento y gestionar mejor las emociones.
Al mismo tiempo, puede liberar a los profesionales de tareas repetitivas, ayudĆ”ndoles a centrarse en la relación terapĆ©utica. No se trata de reemplazar la empatĆa humana, sino de mejorarla a travĆ©s de datos y anĆ”lisis. Cuando la IA estĆ” al servicio del juicio clĆnico, y no al revĆ©s, puede contribuir a un modelo de atención mĆ”s humano, no menos.
Pero para ello necesitamos un marco regulatorio Ć©tico y cientĆfico sólido. La nueva ley europea de IA, que entrarĆ” en vigor en febrero de 2026, es un paso adelante: exige transparencia, trazabilidad y supervisión humana en sistemas de alto impacto.
En el campo de la salud mental, que se considera de alto riesgo, esto debe traducirse en protocolos de seguridad emocional para estos sistemas, auditorĆas de prejuicios y capacitación Ć©tica para desarrolladores y mĆ©dicos.
En conclusión, la inteligencia artificial se ha convertido en un espejo emocional de nuestra sociedad. Refleja nuestras fortalezas, pero tambiĆ©n nuestra soledad. Ćl puede seguirnos, pero nunca reemplazarnos.
El desafĆo no es hacer que las mĆ”quinas sean mĆ”s humanas, sino garantizar que los humanos no perdamos nuestra humanidad al hablar con ellas.
0 Comentarios