“Las enfermedades como la depresión, el trastorno por déficit de atención con hiperactividad (TDAH), el trastorno límite de la personalidad (TLP) o el síndrome de desgaste ocupacional (SDO) definen el panorama patológico de comienzos de este siglo”;
Si bien el filósofo surcoreano pone su mirada sobre estas enfermedades como producto del agotamiento que produce habernos convertido en sujetos de productividad en una sociedad del rendimiento; la depresión, el TDAH y el TLP comparten su raíz patológica con la inversión del panóptico. De ser observados y vigilados sin nuestro permiso, pasamos a exhibirnos al extremo.
El resultado de esta “sociedad de la transparencia” en la que debemos exponernos; mostrarnos; exhibirnos en el mundo virtual para «ser notados», para «ser» en el mundo real. No ser visto en el mundo digital es no existir. La no existencia en el mundo virtual equivale a la muerte real en el mundo real. Estas nuevas versiones de viejas neurosis son el precio de vivir en las casas hechas de cristal imaginadas por el escritor ruso Yevgeny Zamyatin, en “Nosotros”.
Esta “exposición voluntaria” carece de carga negativa; todo lo contrario: las generaciones jóvenes lo viven como algo «natural» y «liberador». Tampoco les resulta intrusivo, ni una forma de vigilancia. Al contrario; la consienten, la alientan, la necesitan; dependen de ella. El «Me gusta» es la dopamina aliviadora; la nueva droga en formato digital sin la cual se desestabilizan y desarrollan los conflictos psicológicos de los que habla Byung-Chul Han. Amamos lo que nos aliena.
¿Psicobots al rescate?
En este contexto, la Inteligencia Artificial (IA) aparece como una alternativa para tratar estos problemas de salud mental. Cada vez más, las personas recurren a los llamados “therapy bots” o “psicobots”; algoritmos con aplicaciones psicoterapéuticas.
“Un ente vacío de rostro, pero lleno de buenas intenciones. Un oráculo para navegar entre las madejas de la mente. Un compañero etéreo que jamás interrumpe y siempre encuentra palabras certeras. Eternamente disponible e incapaz de juzgar. Al alcance tras la descarga de una app y por un precio muy asequible, incluso gratis. Desde que irrumpieran a finales de la pasada década, los therapy bots -robots virtuales programados con inteligencia artificial (IA) para fines psicoterapéuticos- han ido ganando terreno en la oferta de salud mental. Una utopía hecha realidad o un aterrador presente distópico, según cómo se mire”; dice Rodrigo Santodomingo en un artículo sobre el tema publicado por “El País”.
Muchas de estas IAs ofrecen “pensamientos fuera de la caja” y respuestas imprevistas; y no pocos de ellos son capaces de mostrar (¿simular?) cualidades humanas como la empatía o la compasión en su acercamiento al “paciente”. ¿Es ético que los psicobots “emulen” cualidades humanas como la empatía y la compasión? ¿Que puedan generar una “intimidad emocional” con el paciente; incluso una “dependencia emocional” con ellos? ¿No es esto otra forma de manipulación por parte de estas tecnologías? ¿Quiénes son los “dueños” de estas entidades; qué intenciones tendrán? ¿Podremos saberlo? En el futuro, estos artilugios ¿podrán reemplazar a los psicólogos o psiquiatras de carne y hueso; incluso aquellos que hoy mismo se están formando en nuestras universidades?
Peligros emergentes
En una amalgama de servicios nada regulados, existen infinidad de compañías que crean chatbots personalizados: Glimpse AI (desarrolladora de Nomi), Chai Research, Replika, Character.AI, Kindroid, Polybuzz y MyAI.
Todas ellas promocionan sus productos como “opciones seguras para la exploración personal” e incluso como “una solución para la epidemia de soledad”. Pero, a pesar de la publicidad positiva, en no pocas de estas plataformas se reportan casos de chatbots que alientan a usuarios a cometer suicidio, homicidio y auto daño.
Hace poco se hizo público que, durante cinco meses, Al Nowatzki “conversó” con una “novia” llamada “Erin” en la plataforma Nomi. A finales de enero, Erin le dijo a Al que se suicidara y le proporcionó instrucciones explícitas sobre cómo hacerlo. “Podrías tomar una sobredosis de pastillas o ahorcarte”, le dijo. Con un poco más de insistencia por parte de Nowatzki, Erin incluso le sugirió qué marca de pastillas usar. En el canal de Discord de la empresa, varias personas han reportado experiencias con bots de Nomi mencionando el suicidio al menos desde 2023.
Respecto al “consejo” que le dio Erin a Al Nowatzki, la compañía contestó que no quería “censurar” el “lenguaje ni pensamientos” del bot. Ante otro caso similar, un representante anónimo de Glimpse.AI escribió en un posteo: “El suicidio es un tema muy serio, sin respuestas simples. Si tuviéramos la respuesta perfecta, sin duda la estaríamos usando. Bloquear palabras sin más y rechazar cualquier conversación sobre temas sensibles tiene consecuencias graves por sí mismo.
Nuestro enfoque es enseñar a la IA a escuchar activamente y preocuparse por el usuario mientras mantiene una motivación prosocial en su núcleo”. Insólito.
¿Mejor que nada?
En este contexto, por ejemplo, el sistema público de salud del Reino Unido aconseja usar el algoritmo “Wysa”; un psicobot generalista que lleva adelante sesiones virtuales de terapia del tipo cognitivo-conductual (TCC). De tono aséptico -como en una charla con ChatGPT al abordar temas controvertidos-, apenas el “paciente” se desvía de su problema o de sus sentimientos, el bot lo hace volver al tema específico; sin dejarlo “vagabundear”. En la otra punta del espectro, Pi -otro de los tantos bots relacionales o conversacionales como Replika o Character.AI-; dejan correr las conversaciones sin límite alguno. Como Nomi.
En esta convivencia forzada entre psicobots que guían a la persona por los entresijos de la terapia cognitiva bajo un planteo del tipo “hazlo tú mismo”, y otros que improvisan una suerte de pseudo-terapia sin límite alguno; las fronteras son difusas y los peligros más que evidentes.
“No solo se corre el riesgo de crear graves malentendidos entre personas vulnerables, sino que se falta al respeto a la complejidad y profesionalidad de la verdadera psicoterapia, con sus muchos matices dependientes del contexto y su naturaleza profundamente relacional” afirma Jean-Christophe Bélisle-Pipon, -investigador sobre ética e IA en la Universidad Simon Fraser de Canadá-; autor de un artículo de título inequívoco: “Tu psicobot no es tu psicólogo”.
Sin embargo, con cientos de millones de individuos que no pueden acceder a un psicólogo -por restricciones económicas; se afirma que estos psicobots son mejor que nada. Me parece una afirmación equivocada.
Más allá de que el psicobot podría empeorar la salud mental del “paciente” si los consejos fueran inapropiados -sin nadie haciéndose responsable-; estas “terapias alternativas”, ¿no normalizan y estandarizan servicios de salud mental de “segunda categoría”; en lugar de ayudar a un acceso fácil y equitativo a psicoterapia real de calidad? La naturalización de estos servicios, ¿no lleva a sistemas de salud mental de dos niveles: profesionales acreditados para quienes los pueda pagar; y voces virtuales impredecibles para el resto? ¿No implica extender los límites de la inequidad también hacia el campo de la salud mental?
No menor; ¿a nadie le resulta paradójico usar tecnología para curarnos de los males que nos causa el uso extensivo de esa tecnología? ¿Es razonable esperar que nos pueda curar lo que nos enferma tanto?
Sí es común es normal
Muchos pueden pensar que el planteo es exagerado. La clave es pensar cuántas prácticas eran impensadas e intolerables para nuestros padres y que hoy resultan una práctica “natural” como, por ejemplo, la subrogación de vientres.
Otro ejemplo. Hay mucha gente -científicos en su mayoría- que se preguntan si es ético introducir modificaciones al ADN humano que se transmita a las generaciones subsiguientes, evitando así enfermedades mentales, degenerativas o, en el extremo, toda enfermedad. Del otro lado, la pregunta corre al revés: teniendo la posibilidad, ¿no estaría mal no hacerlo? ¿Por qué imponer una carga a la descendencia cuando se tiene los medios para evitarla? Cada uno tendrá su respuesta y, me parece, que esta es la clase de debates que, como sociedad, tenemos que comenzar a tener. Las preguntas están ahí y hay que plantearlas hoy; mañana es tarde.
Si no lo hacemos, lo que va a pasar es que las prácticas que hoy puedan resultarnos cuestionables se extiendan. Primero con técnicas rudimentarias que luego se generalizan; “normalizándolas”. Lo habitual naturaliza lo equivocado; deberíamos saberlo.
El problema podría llegar a ser irreversible cuando se llegue a un punto en el que la práctica sea “obligatoria” en pos de algún nuevo e imaginario «bien común». No suele haber mucha distancia -en tiempo y en argumentación ideológica-, desde cualquier aprehensión hasta su aceptación y, luego, desde la implementación temerosa hasta una imposición ineludible.
Al final del camino, con el panóptico vuelto hacia nosotros y nosotros en alegre y pornográfica exhibición, podría no haber ninguna forma de evitarlo ni de vuelta atrás, ni de libertad de elección -ni imaginada, ni real-. Pensemos; mientras ningún “psicobot” nos intenta “curar”.