Estudio: ¿Los celulares pueden ayudar a predecir suicidios?
CAMBRIDGE, Massachusetts .- En marzo, Katelin Cruz salió de su última hospitalización psiquiátrica con una combinación de sentimientos que le resultaba conocida. Por un lado, se sentía aliviada al dejar la sala, donde los auxiliares le quitaban los cordones de los zapatos y a veces la seguían hasta la ducha para asegurarse de que no se hiciera daño.
Sin embargo, su vida en el exterior era tan inestable como siempre, señaló en una entrevista, con una pila de cuentas sin pagar y sin un hogar permanente. Era fácil volver a tener pensamientos suicidas. Para los pacientes frágiles, las semanas posteriores a ser dados de alta de un centro psiquiátrico son un periodo notoriamente difícil, con una tasa de suicidio alrededor de 15 veces superior a la tasa nacional, según un estudio.
Esta vez, sin embargo, Cruz, de 29 años, salió del hospital como integrante de un vasto proyecto de investigación que intenta utilizar los avances de la inteligencia artificial para hacer algo que durante siglos ha eludido el alcance de los psiquiatras: predecir quién es probable que intente suicidarse, cuándo es probable que esa persona lo haga y, entonces, intervenir.
En su muñeca llevaba una pulsera electrónica Fitbit, programada para registrar su sueño y su actividad física. En su celular, una aplicación recogía datos sobre su estado de ánimo, sus movimientos y sus interacciones sociales. Cada dispositivo proporcionaba un flujo continuo de información a un equipo de investigadores del piso 12 del edificio William James, que alberga el departamento de psicología de la Universidad de Harvard.
En el campo de la salud mental, pocas áreas nuevas generan tanta expectación como el aprendizaje automático, que utiliza algoritmos informáticos para predecir mejor el comportamiento humano. Al mismo tiempo, hay un interés cada vez mayor por los biosensores que pueden rastrear el estado de ánimo de una persona en tiempo real, teniendo en cuenta la música que selecciona, las publicaciones en las redes sociales, la expresión facial y la expresión vocal.
Matthew K. Nock, psicólogo de Harvard y uno de los principales investigadores sobre el suicidio en Estados Unidos, espera unir esas tecnologías en una especie de sistema de alerta temprana que podría utilizarse cuando un paciente en riesgo se da de alta del hospital.
Nock ofrece este ejemplo de cómo podría funcionar: el sensor informa que el sueño de una paciente está alterado, ella declara un estado de ánimo bajo en los cuestionarios y el GPS muestra que no sale de casa. Pero un acelerómetro en su teléfono muestra que se mueve mucho, lo que sugiere agitación. El algoritmo marca a la paciente. Suena una notificación en el tablero. Y, en el momento justo, un médico llama por teléfono o le envía un mensaje.
Hay muchas razones para dudar de que un algoritmo pueda alcanzar ese nivel de precisión. El suicidio es un evento tan poco común, incluso entre las personas con mayor riesgo, que cualquier esfuerzo por predecirlo dará como resultado falsos positivos, lo que obligará a intervenir a personas que tal vez no lo necesiten. Los falsos negativos podrían imponer responsabilidad legal a los médicos.
Los algoritmos requieren datos granulares a largo plazo de un gran número de personas, y es casi imposible observar un gran número de personas que se suicidan. Por último, los datos necesarios para ese tipo de monitoreo generan inquietud sobre la invasión de la privacidad en algunas de las personas más vulnerables de la sociedad.
Nock conoce todos esos argumentos, pero ha perseverado, en parte por pura frustración. “Con el debido respeto a las personas que han estado haciendo este trabajo durante décadas, durante un siglo, no hemos aprendido mucho sobre cómo identificar a las personas en riesgo y cómo intervenir”, aseguró. “La tasa de suicidios ahora es la misma que era literalmente hace cien años. Entonces, si somos honestos, no estamos mejorando”.
Por qué los jóvenes están hablando en las redes sociales del desarrollo del lóbulo frontal
La zona gris
Para los psiquiatras, pocas tareas son más angustiosas que atender a los pacientes que saben que están en riesgo de suicidio mientras están en casa y sin supervisión.
Karen L. Swartz, profesora de psiquiatría de la Universidad Johns Hopkins, lo llama “la zona gris”. Acababa de terminar su formación cuando se enfrentó por primera vez a este problema, al atender a una mujer compleja e inteligente que admitió que tenía pensamientos suicidas, e incluso aludió a un plan, pero que temía la idea de ser hospitalizada.
Swartz pidió consejo al esposo de la mujer. Si la obligas a ir al hospital, dijo, te despedirá.
Así que Swartz decidió arriesgarse, permitió que la mujer permaneciera en casa, ajustó sus medicamentos y esperó. Pasó las siguientes semanas en vilo y, poco a poco, la paciente mejoró. “Era una de esas cosas en las que realmente esperaba tener razón”, dijo. Nunca se torna fácil, señaló Swartz, quien ahora forma a jóvenes psiquiatras: con la experiencia, solamente se hace más claro que los pensamientos suicidas pueden aparecer y desaparecer sin previo aviso.
“Se nos pide predecir algo que es altamente impredecible”, dijo.
Cada vez más, los sistemas de cuidado a la salud recurren al aprendizaje automático para tomar esta decisión. Se utilizan algoritmos basados en amplios conjuntos de datos —extraídos de las historias clínicas electrónicas, así como de otros factores— para asignar a los pacientes una puntuación de riesgo, de modo que las personas con un riesgo excepcionalmente alto puedan recibir atención adicional.
Los algoritmos han demostrado ser más precisos que los métodos tradicionales, que, según una revisión de 2017 de las investigaciones publicadas, no habían mejorado en 50 años y solo eran ligeramente mejores que el azar a la hora de predecir un resultado. Estos métodos ya se utilizan en algunos entornos clínicos. Desde 2017, el Departamento de Asuntos de los Veteranos ha utilizado un algoritmo para marcar el 0,1 por ciento de los veteranos con mayor riesgo de suicidio, unos pocos miles de pacientes en una población de seis millones.
Este enfoque ha tenido cierto éxito. Un estudio publicado el año pasado en JAMA Network Open descubrió que los veteranos inscritos en Reach Vet, un programa para pacientes de riesgo, tenían un cinco por ciento menos de probabilidades de tener un intento de suicidio documentado, y menos probabilidades de ser ingresados en un centro psiquiátrico o de visitar la sala de urgencias. Pero el estudio no encontró ningún cambio significativo en la tasa de suicidio.
Las expectativas que se han creado en torno a esta investigación son tan altas que los expertos se esfuerzan por moderarlas. Michael Schoenbaum, asesor principal del Instituto Nacional de Salud Mental, lo comparó con el entusiasmo, hace 25 años, en torno a la búsqueda de marcadores biológicos para las enfermedades mentales, un caso en el que, señaló, “los optimistas se equivocaron”.
“Estamos a la espera de ver cuándo y dónde, y quizá incluso si esas señales son válidas y fiables”, dijo. “La evidencia, hasta ahora, es emocionante en el sentido de que cualquier señal es prometedora. Esto es algo que antes no podíamos hacer en absoluto”. Pero, advirtió, “estamos buscando algo que aún no hemos encontrado”.
Y algunos de los colegas de Nock dicen que dudan que las predicciones algorítmicas lleguen a ser lo suficientemente precisas como para intervenir en la estrecha ventana que precede a un intento de suicidio.
“Sin duda no es un problema fácilmente solucionable”, dijo Nick Allen, director del Centro de Salud Mental Digital de la Universidad de Oregón, que ayudó a desarrollar EARS, una aplicación que rastrea el estado de ánimo basándose en factores como la elección de la música, la expresión facial y el uso del lenguaje.
“Probablemente, en cierto sentido, no es un problema que pueda solucionarse, por la misma razón por la que tenemos tiroteos en las escuelas y por la misma razón por la que no podemos predecir muchas de estas cosas”, dijo Allen. “Las matemáticas son realmente desalentadoras”.
Misiones: un turista cayó a las cataratas del Iguazú y lo buscan intensamente
Una manguera contra incendios de datos
En una tarde de agosto en el edificio William James, Adam Bear, un científico de datos larguirucho vestido con holgados pantalones cortos y unas sandalias, se sentó frente a un monitor en el laboratorio de Nock a ver los gráficos en zigzag de los niveles de estrés de un sujeto en el transcurso de una semana.
Cuando los estados de ánimo se representan como datos, surgen patrones, y el trabajo de Bear consiste en buscarlos. Pasó el verano analizando los días y las horas de 571 sujetos que, tras buscar atención médica por pensamientos suicidas, aceptaron un seguimiento continuo durante seis meses. Durante el periodo, dos se suicidaron, y entre 50 y cien lo intentaron.
Se trata, en opinión de Nock, de la reserva de información más grande que se ha recolectado sobre la vida cotidiana de personas que sufren pensamientos suicidas.
El equipo está más interesado en los días que preceden a los intentos de suicidio, lo que daría tiempo para intervenir. Ya han surgido algunas señales: aunque los impulsos suicidas no suelen cambiar en el periodo anterior a un intento, la capacidad de resistir esos impulsos sí parece disminuir. Algo sencillo —la privación del sueño— parece contribuir a ello.
Nock lleva buscando formas de estudiar a esos pacientes desde 1994, cuando tuvo una experiencia que lo impactó de manera profunda. Durante unas prácticas de licenciatura en el Reino Unido, le asignaron una unidad cerrada para pacientes violentos y autolesivos. Allí vio cosas que nunca había visto: los pacientes tenían cortes arriba y abajo de los brazos. Uno de ellos se arrancó el globo ocular. Un joven del que se hizo amigo, que parecía estar mejorando, apareció más tarde en el Támesis.
Otra sorpresa llegó cuando empezó a acribillar a los médicos con preguntas sobre el tratamiento de esos pacientes y se dio cuenta de lo poco que sabían. Recuerda que los doctores le dijeron: “Les damos algunos medicamentos, hablamos con ellos y esperamos que mejoren”.
Una de las razones, concluyó, era que nunca había sido posible estudiar a un gran número de personas con ideas suicidas del mismo modo que podemos observar a los pacientes con enfermedades cardiacas o tuberculosis. “La psicología no ha avanzado tanto como otras ciencias porque en gran medida lo hemos hecho mal”, explicó. “No hemos ido en busca de un comportamiento relevante en la naturaleza ni hemos salido a observarlo”.
Pero con la llegada de las aplicaciones telefónicas y los sensores portátiles, añadió, “tenemos datos de muchos canales diferentes y, cada vez más, contamos con la capacidad de analizar esos datos, y observar a las personas mientras viven”. Uno de los dilemas del diseño del estudio era qué hacer cuando los participantes expresaban un fuerte deseo de hacerse daño. Nock decidió que debían intervenir.
“Esto tiene una desventaja porque hay menos intentos y menos suicidios y, por lo tanto, científicamente, ahora estamos disminuyendo nuestra probabilidad de encontrar una señal”, dijo. Pero, añadió, “siempre vuelvo al tema de, ¿y si fuera mi hijo?”.
Las intervenciones se han convertido en una parte rutinaria de la vida en el laboratorio. Si en un cuestionario de rutina un sujeto informa de un fuerte deseo de hacerse daño a sí mismo, y es entre las 9 y las 21, recibe una llamada en 15 minutos de uno de los investigadores, que le pregunta si lo ha intentado.
“Somos una especie de persona sin rostro, así que hay menos molestias”, dice Narise Ramlal, asistente de investigación en el laboratorio. Pero Nock se pregunta —y espera probar— si las intervenciones digitales pueden resultar más eficaces.
“Muchas personas no quieren que un humano se ponga en contacto con ellas cuando están en alto riesgo”, dijo. “No quiere decir que vayamos a sustituir a los humanos por máquinas, pero probablemente puedan ser mucho más eficientes de lo que somos ahora”.
Diciéndole la verdad a una computadora
Eran alrededor de las 21, unas cuantas semanas después de haber comenzado el estudio de seis meses, cuando apareció la pregunta en el celular de Cruz: “¿En este momento, qué tan fuerte es tu deseo de suicidarte?”.
Sin detenerse a pensar, arrastró su dedo hasta el final de la barra: 10. Segundos después, se le pidió que eligiera entre dos afirmaciones: “Definitivamente no me voy a suicidar hoy” y “Definitivamente voy a suicidarme hoy”. Optó por la segunda opción.
Quince minutos después, sonó su teléfono. Era un miembro del equipo de investigación que la llamaba. La mujer llamó al 911 y mantuvo a Cruz en la línea hasta que la policía llamó a su puerta y ella se desmayó. Más tarde, cuando recuperó el conocimiento, un equipo médico le estaba frotando el esternón, un procedimiento doloroso que se usa para revivir a las personas después de una sobredosis.
Cruz tiene un rostro pálido y angelical, así como cabello rizado y oscuro. Estaba estudiando la carrera de enfermería cuando una cascada de crisis de salud mental hizo que su vida tomara otra dirección. Mantiene el interés de una estudiante sobresaliente por la ciencia, y bromea diciendo que la caja torácica de su camiseta es “totalmente anatómicamente correcta”.
Desde el primer momento, se sintió intrigada por el ensayo, y respondió diligentemente seis veces al día, cuando las aplicaciones de su teléfono le preguntaron sobre sus pensamientos suicidas. Las notificaciones eran invasivas, pero también reconfortantes. “Sentí que no me ignoraban”, dijo. “Me quita algo de peso que alguien sepa cómo me siento”.
La noche de su intento, estaba sola en una habitación de hotel en Concord, Massachusetts. No tenía suficiente dinero para pasar otra noche allí, y sus pertenencias estaban amontonadas en bolsas de basura en el suelo. Estaba cansada, dijo, “de sentir que no tenía a nadie ni nada”. En retrospectiva, Cruz dijo que pensaba que la tecnología —su anonimato y falta de juicio— hacía más fácil pedir ayuda.
“Creo que es casi más fácil decirle la verdad a una computadora”, agregó.
Sin embargo, muchos profesionales del sector desconfían de la idea de que la tecnología pueda sustituir la atención de un médico. Una de las razones es que los pacientes en una crisis se vuelven hábiles en el engaño, dijo Justin Melnick, de 24 años, un estudiante de doctorado que sobrevivió a un intento de suicidio en 2019 y ahora es un defensor de las personas con enfermedades mentales.
Recordó haber cortado las conversaciones telefónicas con su madre, la persona más capacitada para sacarlo del “precipicio”, y luego apagar su teléfono. “Y era como, ok, esa puerta se cerró”, dijo. Describió estas evasivas como “un acto de desafío”. ¿Por qué, se preguntó, una persona en ese estado de ánimo aceptaría llevar un sensor?
Al final, dijo, lo que le ayudó a dar un giro fue la gente: un grupo de apoyo, que se reunía semanalmente en un círculo de sillas para sesiones de terapia conductual dialéctica, y una red de amigos, familiares y terapeutas que lo conocen lo suficiente como para reconocer su comportamiento. Cuando eso ocurre, dijo, “generalmente podemos surfear juntos esa ola”.
Cruz no tiene una red así. El mes pasado, cuando las temperaturas en Massachusetts caían hasta los 4°C, vivía en una tienda de campaña con su novio, acurrucados bajo una manta para entrar en calor. Por la mañana, esperaban a que abriera el McDonald’s para poder secar sus sudaderas y zapatos y cargar sus dispositivos.
Ella era constante a la hora de tomar sus medicamentos —cinco de ellos—, pero tenía problemas para encontrar un nuevo terapeuta: el único de su zona que aceptaba Medicaid tenía una lista de espera de ocho meses.
La semana pasada, cuando el ensayo clínico de seis meses concluyó, Cruz llenó su cuestionario final con una punzada de tristeza. Echaría de menos el dólar que recibió por cada respuesta. Y extrañaría la sensación de que alguien la observaba, aunque fuera alguien sin rostro, a distancia, a través de un dispositivo.
“Honestamente, me hace sentir un poco más segura saber que alguien se preocupa lo suficiente como para leer esos datos todos los días, ¿sabes?”, dijo. “Estaré un poco triste cuando termine”.
En la Argentina, dónde buscar ayuda
Línea 135
El Centro de Atención al Suicida (CAS) atiende 18 horas diarias de forma gratuita. La técnica utilizada es la “escucha activa”, con intervenciones orientadas a que el consultante pueda hablar. Los números (011) 5275-1135 o 0800 345 1435 son para todo el país.
Salud Mental Responde CABA
Es un dispositivo que brinda orientación telefónica de forma confidencial para residentes de la ciudad de Buenos Aires. Los teléfonos 4863-8888/48615586/4123-3120 funcionan de lunes a viernes de 8 a 20. Además, se puede llamar al 4123-3100 int. 3484/3485 los feriados, fines de semana y por la noche, de 20 a 8.
S.O.S un Amigo Anónimo
Es una asociación sin fines de lucro que desde hace casi cinco décadas ofrece asistencia telefónica confidencial para personas que transitan alguna crisis emocional. Recibe llamadas por Skype (usuario: SOSUNAMIGOANONIMO). Además, tienen un teléfono de línea: (011) 4783-8888. Gracias a sus 30 voluntarios, funciona todos los días de 10 a 19.
Asociación Argentina de Psiquiatras
Tienen una web donde facilitan la búsqueda de profesionales expertos. Además, se puede llamar al (011) 4331 5009.
Hospital Nacional en Red Especializado en Salud Mental y Adicciones Lic. Laura Bonaparte
Cuenta con un Comité de Emergencia que realiza entrevistas telefónicas para asesoramiento y contención, atendido por profesiones de salud mental. Los teléfonos son (011) 4305-0091 al 96, interno 2106. La primera consulta gratuita es por demanda espontánea presentándose sin turno de lunes a viernes 8 a 18, en Combate de los Pozos 2133, CABA.
Salud mental responde Hospital José T. Borda
Brinda orientación telefónica de forma confidencial a personas de CABA que requieran asistencia o acompañamiento de salud mental. El teléfono es: 4360-6670
Hospitales públicos
Algunos hospitales públicos con servicio de salud mental para niños y adolescentes son:
Hospital de Clínicas (también ofrece para adultos)
Ofrecen atención para adultos:
Por Ellen Barry