Si has estado en Internet últimamente, seguramente hayas escuchado hablar de inteligencia artificial. En los últimos tiempos, términos tales que “IA”, “chatbot” y “ChatGPT” se han repetido en muchos ámbitos de la vida de las personas, como el trabajo y la escuela. Pero… ¿Habías considerado la posibilidad de encontrar estos conceptos en psicoterapia? Aprendamos sobre el vínculo de la psicología con la inteligencia artificial por medio de chatbots en salud mental. Además de las implicancias éticas, legales y sociales que conlleva utilizar estas herramientas en psicoterapia.

Inteligencia artificial en interacción con la vida humana

La inteligencia artificial (IA) es una ciencia que busca desarrollar sistemas y programas capaces de imitar la inteligencia humana. Para ello, la IA procesa grandes volúmenes de datos para aprender y tomar decisiones basadas en patrones y reglas predefinidas, utilizando algoritmos y técnicas de aprendizaje automático y profundo (McCarthy, 2007).

Dos tipos de aprendizajes

Por un lado, el aprendizaje automático (machine learning, en inglés), que busca enseñar a las máquinas a aprender y mejorar automáticamente a través de la experiencia. Y, por otro, el aprendizaje profundo (deep learning, en inglés), que utiliza redes neuronales artificiales para simular el funcionamiento del cerebro humano. Aunque son dos ramas distintas, están estrechamente relacionadas y se complementan en la búsqueda de sistemas inteligentes y autónomos (Aggarwal et al., 2022).

Chatbots: Modelos conversacionales inteligentes

Ha habido una rápida expansión de la inteligencia artificial en numerosos ámbitos de la vida. Justamente, uno de los objetivos de la IA es interactuar con humanos para integrarse a las tareas que ellos realizan, por medio de agentes inteligentes (Adamopoulou y Moussiade, 2020).

Chatbots: Psicoterapia con inteligencia artificial

¿Qué es un chatbot?

Un ejemplo de agente inteligente es un chatbot, un programa de ordenador que responde como una entidad inteligente en conversaciones a través de texto o voz y varían en complejidad.

En primer lugar, los chatbots más simples tienden a seguir reglas predefinidas, ofreciendo respuestas preprogramadas basadas en palabras clave o patrones específicos, sin necesidad de utilizar modelos de lenguaje.

En cambio, aquellos chatbots más sofisticados utilizan modelos de lenguaje avanzados, como redes neuronales o algoritmos de aprendizaje automático (tal es el caso de ChatGPT). La finalidad de estos modelos es la comprensión y generación de respuestas más elaboradas y adecuadas al contexto en el que se encuentran.

Con esto, el uso de tales herramientas basadas en inteligencia artificial se encuentra muy extendido, desde sectores como atención al cliente, gestión financiera y promoción del turismo. Pero, también, tales agentes inteligentes se encuentran presentes en servicios de salud e investigación, como ocurre en psicología.

El uso de chatbots en terapia

Actualmente, el desarrollo de chatbots en psicoterapia se realiza con el fin de intentar imitar la interacción humana y proveer apoyo emocional mediante diálogos. Para esto, se sirven de algoritmos y métodos de procesamiento del lenguaje natural de vanguardia para comprender inquietudes y requerimientos de los usuarios, así como para brindar respuestas y suministrar recursos. Ahora, no siempre se ha pensado utilizar chatbots en psicoterapia, más bien, sus inicios están ligados al ámbito de la investigación en psicología.

Un poco de historia

La historia del uso de chatbots se remonta a los años 60, cuando se desarrolló un programa informático llamado ELIZA.

Su objetivo era emular las habilidades conversacionales de un psicoterapeuta. Incluso, permitía a los pacientes asumir gran parte del trabajo cognitivo de interpretación durante las interacciones.

Aunque inicialmente se diseñó para investigaciones en procesamiento del lenguaje natural, su éxito impulsó un crecimiento acelerado del campo de la inteligencia artificial (Pham et al., 2022).

Aplicación en psiquiatría

En las últimas dos décadas, la inteligencia artificial ha integrado el uso de modelos de aprendizaje profundo. Además, los ha combinado con estudios de neuroimagen en pacientes psiquiátricos. Así, mediante el aprovechamiento de información neuroanatómica y neurofuncional, estos modelos permiten clasificar con mayor precisión a personas con trastornos psiquiátricos, como la psicosis (Vieira et al., 2017).

Chatbots psicoterapeutas para jóvenes con síntomas depresivos

La depresión y los trastornos de ansiedad son dos problemáticas frecuentes en salud mental y, por lo tanto, también se han estudiado posibles intervenciones con chatbots. Especialmente, las investigaciones se han centrado en adolescentes y jóvenes adultos.

Por ejemplo, Dosovitsky y Bunge (2023) evaluaron la aceptabilidad y eficacia de un chatbot diseñado para ayudar a adolescentes con depresión. Entre los resultados hallaron que la mayoría de los participantes informaron experiencias positivas con el chatbot.

En otra ocasión, se investigó a un chatbot basado en terapia cognitivo conductual utilizado por jóvenes con síntomas depresivos. Observándose que el chatbot era una opción terapéutica digital, autoguiada y de acceso fácil (He, 2022). Ahora, si bien produjo una mejora en los síntomas, lo hizo en menor medida, dando la pauta de que no es suficiente el uso exclusivo de chatbots en psicoterapia.

Ventajas y desafíos en el uso de chatbots

A grandes rasgos, podríamos inferir que los chatbots pueden ser aceptables y beneficiosos para algunas poblaciones en el campo de la salud mental. Entre las ventajas de estas herramientas se encuentran:

  • Accesibilidad y la disponibilidad las 24 horas del día, los siete días de la semana. Esto permitiría a las personas recibir apoyo terapéutico en cualquier momento.
  • Poder llegar a poblaciones remotas o que enfrentan barreras geográficas, ampliando el alcance de los servicios de salud mental.
  • Ofrecer confidencialidad y anonimato. Lo que puede ser especialmente atractivo para aquellos que desean mantener su privacidad y que muestran cierta resistencia a atenderse con un terapeuta convencional. Por ejemplo, en un estudio realizado por Warren y colaboradores (2015), se descubrió que las personas respondían positivamente cuando su terapeuta no era humano, sino un robot.

Implicaciones éticas y sociales

Sin perjuicio de las ventajas mencionadas, el uso de chatbots también presenta limitaciones en su uso práctico, y en consonancia con las leyes en la justicia y la ética en psicología. En ese sentido destaca:

  • El uso de aplicaciones de IA en salud mental requiere una cuidadosa consideración de la seguridad de los datos. Por lo tanto, es importante evaluar el manejo de la información generada y la posibilidad de hackeo o monitoreo no autorizado.
  • Introducir inteligencia artificial en la salud mental podría justificar la sustitución de servicios establecidos, resultando en menos recursos de salud disponibles y agravando las desigualdades existentes.
  • Al ser un servicio relativamente nuevo, no existen marcos regulatorios legales basados en la ética, que permitan subsanar posibles complicaciones en estas “sesiones de terapia”.
  • Existe una preocupación de que las “brechas” entre la aplicación y los marcos éticos solo se aborden una vez que ya se haya producido daño. Debido a que, las aplicaciones se actualizan muy frecuentemente, dificultando que, las posibles regulaciones, se ajusten con la misma rapidez (Fiske et al., 2019).

Conclusión

A pesar de que los chatbots en salud mental luzcan como una solución prometedora, se requiere más investigación para asegurar su efectividad a largo plazo. Los estudios actuales sugieren que no hay evidencias suficientes que nos permitan reemplazar la labor del psicólogo con un chatbot de salud mental. En dicho sentido, se sugiere que, de querer utilizar chatbots, sea a modo de complemento de la terapia psicológica tradicional o como enfoque de atención primaria en salud mental.

A su vez, es esencial abordar los desafíos éticos y legales, como la privacidad de los datos, la calificación de los proveedores y la detección de crisis, para garantizar un uso seguro y efectivo de estas herramientas en el campo de la psicoterapia.

Referencias bibliográficas

  • Adamopoulou, E. y Moussiades, L. (2020). An Overview of Chatbot Technology. Artificial Intelligence Applications and Innovations: 16th IFIP WG 12.5 International Conference, AIAI 2020, Neos Marmaras, Greece, June 5-7, 2020, Proceedings, Part II584, 373-383. https://doi.org/10.1007/978-3-030-49186-4_31
  • Aggarwal, K., Mijwil, M. M., Al-Mistarehi, A. H., Alomari, S., Gök, M., Alaabdin, A. M. Z. y Abdulrhman, S. H. (2022). Has the Future Started? The Current Growth of Artificial Intelligence, Machine Learning, and Deep Learning . Iraqi Journal For Computer Science and Mathematics3(1), 115-123. https://doi.org/10.52866/ijcsm.2022.01.01.013
  • Dosovitsky, G. y Bunge, E. (2023). Development of a chatbot for depression: adolescent perceptions and recommendations. Child and Adolescent Mental Health28(1), 124-127. https://doi.org/10.1111/camh.12627
  • Fiske, A., Henningsen, P. y Buyx, A. (2019). Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy. Journal of medical Internet research21(5), e13216. https://doi.org/10.2196/13216.
  • McCarthy, J. (2007)What is artificial intelligence? Stanford.edu. Recuperado el 30 de mayo de 2023, de https://www-formal.stanford.edu/jmc/whatisai.pdf
  • Pham, K. T., Nabizadeh, A. y Selek, S. (2022). Artificial intelligence and chatbots in psychiatry. The Psychiatric Quarterly, 93(1), 249-253. https://doi.org/10.1007/s11126-022-09973-8
  • Vieira, S., Pinaya, W. H. y Mechelli, A. (2017). Using deep learning to investigate the neuroimaging correlates of psychiatric and neurological disorders: Methods and applications. Neuroscience and biobehavioral reviews74(Pt A), 58-75. https://doi.org/10.1016/j.neubiorev.2017.01.002
  • Warren, Z., Zheng, Z., Das, S., Young, E. M., Swanson, A., Weitlauf, A. y Sarkar, N. (2015). Brief report: Development of a robotic intervention platform for young children with ASD. Journal of Autism and Developmental Disorders45(12), 3870-3876. https://doi.org/10.1007/s10803-014-2334-0