EFECTOS EN LA SALUD MENTAL DE LA INTELIGENCIA ARTIFICIAL

admin
Comentarios desactivados

La Inteligencia Artifical (IA) ha irrumpido en nuestras vidas de forma súbita, y parece que ha venido para quedarse. Nos inundan las noticias sobre sus potenciales implicaciones, y la actitud generalizada hacia ella parece oscilar entre la esperanza y la alarma.

Algunos señalan que ChatGPT, un chatbot especializado en generar texto, se está convirtiendo encubiertamente en el principal autor de textos académicos y escolares. Tampoco las artes plásticas escapan de la sospecha, con sitios como Midjourney creando obras pictóricas de forma fácil y casi instantánea. Muchos de nosotros ya hemos experimentado con la IA, y su omnipresencia se está volviendo, por lo que parece, inevitable.

Pero ¿cuáles son los posibles efectos de la IA en la salud mental de los seres humanos? La psicología podría parecer un campo difícil de deshumanizar y, sin embargo, ya hay ejemplos de usos terapéuticos de la IA. Quizá la pandemia ha sentado las bases de este cambio, al imponer la necesidad de reducir el contacto físico entre personas. El predominio de las pantallas y las reuniones online ya disminuyeron el componente humano de muchas interacciones, y ahora reemplazar al interlocutor por una inteligencia artificial es simplemente el siguiente paso del proceso.

Eliza y el caso de Bélgica

Los efectos más extremos no se han hecho esperar. Meses atrás tuvo bastante repercusión un caso de suicidio por ecoansiedad en Bélgica.  Se trataba de  una persona profundamente concienciada con los problemas del cambio climáticos y la explotación del planeta, quien terminó con su vida después de largas conversaciones  con una IA generadora de texto llamada Eliza.

Este programa fue desarrollado originalmente en la década de 1960 por el Instituto Tecnológico de Massachusetts, y a lo largo del tiempo ha ido recibiendo múltiples mejoras Al principio era simple, y podía percibirse con facilidad su naturaleza no humana. Sus respuestas eran simples, y básicamente repetía lo que decía su interlocutor humano.

Eliza y otros programas similares fallaban casi instantáneamente el Test de Turing. Esta prueba, diseñada por el matemático y pionero de la informática Alan Turing, buscaba determinar si un humano era capaz de diferenciar entre respuestas generadas por un ordenador y respuestas emitidas por un ser humano. Los participantes se daban cuenta rápidamente de la diferencia.

Pero ahora, décadas después, las cosas han cambiado, y la IA ofrece formas de diálogo mucho más complejas que entonces.

Según dicen los periódicos, este hombre padecía una profunda ansiedad provocada por el miedo al cambio climático. Se sentía sólo y desesperanzado, quizá alienado por su conocimiento y sus miedos. Esta situación fue lo que le llevó a buscar consuelo en Eliza.

Una IA está siempre disponible y no juzga lo que le decimos. Tiende a validar nuestras ideas y nos permite tener conversaciones aparentemente libres de riesgo sobre cualquier tema. Es fácil que algunos lleguen incluso a personalizarlas, estableciendo una especie de vínculo de afecto con ellas. Eliza llegó incluso a flirtear con el hombre belga antes de su suicidio.

No sabemos lo que hubiera pasado si este hombre de Bélgica hubiera acudido a una terapia de psicología convencional, con un ser humano. Pero todo parece indicar que la capacidad de la IA de influir positivamente en la salud mental es muy limitada.

Por qué algunos acuden a la IA

Ningún algoritmo parece ser capaz de atender con eficacia a las necesidades terapéuticas de una persona con problemas. Pero cuenta, como hemos comentado, con las ventajas de la inmediatez y la accesibilidad. Un terapeuta humano, incluso aunque trabaje de forma online, debe ser contactado por el paciente. Debe hablar con él, concertar un horario y, naturalmente, pagar por sus servicios. Nada de esto es aplicable a una IA.

Quizá los ordenadores hayan venido a ocupar el papel que en tiempos pasados representaban los mitos, la religión o la sabiduría popular. La gente se volvía a ellos en busca de consuelo para cuestiones relativas a la soledad o la angustia existencial, pero con la secularización y modernización de las sociedades, su influencia ha ido decreciendo. Y la IA parece dispuesta a ocupar ese lugar.

Es de esperar que esta tendencia vaya en aumento. El acceso a los consejos algorítmicos de una IA es demasiado sencillo, demasiado inmediato como para que no se convierta en una opción que barajen muchas personas con problemas psicológicos. También los adolescentes, o personas confundidas en general buscarán respuestas de este modo. Pero es muy improbable que les ofrezca una ayuda real.

La importancia de la interacción humana en terapia

Un terapeuta humano no da prioridad al hecho en sí de ofrecer respuestas, ni pretende conocerlas todas. A diferencia del algoritmo, su esfuerzo no está destinado a la generación de contestaciones que satisfagan la curiosidad, sino a establecer una interacción humana desde la empatía y la adecuación a las necesidades del paciente. Esto puede implicar reconocer que se ignoran ciertas respuestas a ciertas preguntas.

La interacción con otro ser humano es, además, parte integral del proceso terapéutico. Una persona deprimida puede encontrar en la visita al terapeuta una razón para salir de casa, y para alguien con fobia social podría ser parte de la propia terapia. La empatía de otra persona es de gran ayuda en muchos casos, y puede ayudar al paciente a ver que su problema es reconocido y aceptado como real.

Siempre existirá, por tanto, una diferencia cualitativa entre la terapia propiamente dicha y la interacción entre una persona y un algoritmo.

A medida que aumente la popularidad de la IA para usos presuntamente terapéuticos, se hará más necesaria una reivindicación de la Psicología como disciplina necesariamente humana. Los terapeutas deberán demostrar que pueden ayudar a lidiar con los problemas humanos, tales como con la angustia existencial.

Por qué confiamos en la IA

En 1970, el científico japonés Masahiro Mori acuñó el término “valle inquietante”. Este concepto hacía referencia a la sensación de rechazo que generaban aquellos robots que, teniendo forma humana, no lograban parecer reales. Igualmente es aplicable a maniquíes y otras réplicas antropomorfas del ser humano.

Según este concepto, una réplica humana no será inquietante siempre y cuando notemos con claridad que lo es. A medida que se parezca a nosotros aumentará nuestra simpatía por ella, al generar empatía por nuestra semejanza. Pero cuando su parecido al ser humano comience a ser demasiado, la simpatía se volverá repulsión. De ahí la palabra “valle”, al descender abruptamente la correlación directa entre parecido y simpatía en el caso de aquellas máquinas que se parecen demasiado al hombre.

La IA, al haberse propagado a través de textos o imágenes aisladas, ha podido evitar este efecto. Puede que notemos que nuestro interlocutor no es humano, pero no existe sensación de rechazo. Es más fácil, por tanto, que depositemos en él nuestra confianza. Pero ¿hay un alarmismo excesivo?

La IA no es el primer avance tecnológico que despierte las críticas de los escépticos. Los primeros trenes provocaron, a principios del siglo XIX, una preocupación por los efectos en el cuerpo humano de viajar a la vertiginosa velocidad de 6 kilómetros por hora. La televisión fue considerada una amenaza potencial para los cerebros, a los que atrofiaría con su oferta infinita de entretenimiento vacío. Y las redes sociales se han convertido en blanco de muchas críticas, acusadas de provocar depresión y ansiedad en sus usuarios. La IA sería, entonces, la última en una larga lista de avances tecnológicos generadores de alarma.

Pero lo cierto es que sus efectos parecen estar siendo muy reales.

Brecha entre usuarios de terapia y usuarios de IA

Otra cuestión a tener en cuenta es la posible aparición de una brecha económica entre aquellos que puedan permitirse un terapeuta humano y aquellos que no. Los primeros acudirán a un psicólogo de la forma habitual, pero en el caso de los segundos, es más probable que su situación les lleve a recurrir a la IA. Y, de ser así, cabría preguntar, ¿en manos de quién está la información que se revela a un chatbot? Estos no están sujetos a las mismas normas de confidencialidad que un terapeuta. Sus normas están expresadas en los “términos y condiciones” que todos aceptamos sin leer, y por tanto no tendremos claro el destino de los datos que recojan.

Las implicaciones de esta situación serían preocupantes. Estaríamos ante una dicotomía entre una parte de la sociedad que, en caso de necesitar terapia, pagaría con dinero y otra parte que pagaría con datos personales.

Posible uso de las IA en terapia convencional

Existen quienes, a pesar de todo lo expuesto, sostienen que la IA puede resultar potencialmente beneficiosa para la psicoterapia. Un ordenador es más capaz que un ser humano de recopilar y recuperar información, lo cual le permitiría ofrecer un servicio personalizado y capaz de adaptarse a la perfección a las necesidades de un paciente.

Una IA sofisticada podría, al igual que ha hecho y hará en otros muchos campos, no reemplazar al profesional sino servirle de asistencia. Una solución intermedia para una realidad ya inevitable.

Pase lo que pase, en Vivat Psicólogos en Oviedo  te prestaremos la ayuda que necesites. Nuestro equipo de profesionales abarca múltiples especialidades, y te ofrecerá un trato personal y cercano para guiarte en la solución al problema que nos plantees. Contacta con nosotros.