En pocos años, la inteligencia artificial ha pasado de ser un concepto abstracto reservado, casi, a películas de ciencia ficción, a convertirse en una herramienta que usamos constantemente. Nos ayuda a escribir textos, buscar respuestas, traducir idiomas, planificar viajes o nuestro entrenamiento, entre otros usos. Pero esta revolución tecnológica plantea una pregunta: ¿puede la inteligencia artificial estar cambiando, o incluso atrofiando, la manera en que funciona nuestro cerebro?
Y aunque no se trata de demonizar la IA, los expertos alertan de que su uso sin criterio puede tener consecuencias más importantes de lo que imaginamos, especialmente en cerebros en desarrollo o en personas emocionalmente vulnerables.
¿Puede la inteligencia artificial atrofiar nuestro cerebro?
La primera cuestión que nos planteamos, como decíamos, es si esta nueva herramienta puede tener este impacto devastador en nuestro cerebro. La respuesta es no, al menos, no en el sentido estricto del término. Pero sí puede modificar su funcionamiento y, con ello, alterar procesos fundamentales como la memoria, la atención o la toma de decisiones. Así lo explica el profesor Ignacio Morgado Bernal, catedrático emérito de Psicobiología en el Instituto de Neurociencias de la Universidad Autónoma de Barcelona: “La inteligencia artificial hace trabajar al cerebro de otra manera. En lugar de almacenar directamente la información, la almacena sobre archivos que contienen mucha más información de la que él mismo puede almacenar”.
En otras palabras, cuando consultamos constantemente un asistente de IA para saber qué cocinar, qué escribir o cómo resolver un problema, el cerebro empieza a funcionar como un director de orquesta que ya no interpreta música, sino que pulsa ‘play’ en un reproductor externo. Y aunque eso puede liberar recursos mentales para otras tareas, también puede hacernos menos autónomos a largo plazo.
Ignacio Morgado, psicobiólogo
¿Puede la inteligencia artificial acelerar el deterioro cognitivo?
En los adultos mayores, el impacto parece ser diferente. “Por no ejercitar el cerebro, sí puede acelerarse el deterioro cognitivo; pero por usar la IA, no”, señala Morgado. De hecho, la inteligencia artificial podría tener cierto valor terapéutico si se utiliza de forma dirigida para estimular la mente, jugar, aprender o entrenar habilidades cognitivas.
Eso sí, siempre con una premisa clara: sentido común e información. “Hay que usar la IA informándonos bien sobre lo que se usa. Saber, por ejemplo, que no hablamos con una persona o un profesional, sino con una máquina programada con limitaciones”, recuerda Morgado.
Elisabet Sánchez, psicóloga
Chatbots y salud mental: una combinación peligrosa en personas vulnerables.
Uno de los terrenos donde más se ha expandido el uso de la inteligencia artificial es la salud mental. Chatbots diseñados para conversar con personas que se sienten solas, ansiosas o deprimidas están cada vez más presentes. Y aunque pueden ser útiles como complemento, los expertos en psicoterapia están preocupados por su uso sin supervisión.
Según una revisión de estudios realizada por el centro Itersia, la accesibilidad 24/7 y la capacidad de simular empatía hacen que muchos usuarios, especialmente jóvenes o personas emocionalmente frágiles, sustituyan la consulta psicológica por conversaciones con asistentes virtuales. “Cambiar el chatbot por el terapeuta puede provocar desde omisión de crisis clínicas hasta dependencia emocional sin respaldo real”, alerta la psicóloga Elisabet Sánchez, del centro Itersia.
Cinco riesgos clave de los chatbots en salud mental
Los expertos en salud mental de Itersia han elaborado un listado con los principales peligros asociados al uso indiscriminado de estos sistemas en personas emocionalmente vulnerables:
Falta de detección de crisis: los asistentes no están preparados para identificar ni intervenir en situaciones de riesgo como pensamientos suicidas, violencia o brotes psicóticos.
Ilusión de vínculo emocional: su lenguaje conversacional puede generar la falsa sensación de estar hablando con alguien que realmente comprende, lo que crea una relación artificial sin respaldo profesional.
Consejos erróneos: a pesar de su fluidez, pueden ofrecer respuestas equivocadas, no basadas en evidencia o incluso peligrosas si se siguen al pie de la letra.
Falta de contexto clínico: no comprenden bien los matices personales, culturales o emocionales que un terapeuta humano sí puede interpretar.
Ausencia de control ético: no están sujetos a códigos deontológicos ni a supervisión clínica, lo que puede derivar en un uso irresponsable.
Además, una investigación reciente con pacientes con ansiedad social detectó que quienes sufrían síntomas más graves eran precisamente quienes más confiaban en los chatbots, viéndolos como un refugio seguro frente a la interacción humana. Esto, sin embargo, puede reforzar la evitación social y reducir las probabilidades de buscar ayuda profesional real. (Hola.com).