Padres del joven que se suicidó demandan a Facebook, Instagram y Snapchat por “diseño adictivo” de plataformas

·4  min de lectura

Los padres del joven que se suicidó demandan a Facebook, Instagram y Snapchat alegando que son culpables por su “diseño adictivo”

La familia de Christopher “CJ” Dawley alega que su hijo desarrolló una adicción a las redes sociales que le llevó a la muerte

El alcalde de Nueva York llama a las empresas de redes sociales a moderar los contenidos violentos

La familia de un adolescente de Wisconsin que murió por suicidio en 2015 demandó a las empresas matrices de Facebook, Instagram y Snapchat, alegando que las compañías provocaron su crisis mental con sus productos adictivos.

Donna Dawley, la madre de Christopher “CJ” Dawley, presentó la semana pasada una demanda contra Meta Platforms y Snap en el circuito judicial federal de Wisconsin, alegando muerte por negligencia.

La demanda se presentó con la ayuda del SMVLC (Social Media Victims Law Center), un bufete de abogados especializado fundado para obligar a las empresas de redes sociales a cambiar sus prácticas de diseño imponiéndoles sanciones económicas.

“Los testimonios del Congreso han demostrado que tanto Meta Platforms como Snapchat eran conscientes de la naturaleza adictiva de sus productos y no protegieron a los menores en nombre de más clics e ingresos adicionales”, señaló Matthew P Bergman, fundador del bufete.

“Estamos llamando a las empresas matrices de Facebook, Instagram y Snapchat para que prioricen la salud y el bienestar de sus usuarios mediante la implementación de salvaguardias para proteger a los menores del peligro del ciberacoso y la explotación sexual que corren en sus plataformas.”

Christopher “CJ” Dawley (CNN/familia)
Christopher “CJ” Dawley (CNN/familia)

Un portavoz de Meta, propietaria de Facebook e Instagram, declinó hacer comentarios directamente sobre la demanda, pero esbozó una serie de medidas que la compañía ha tomado para salvaguardar la salud mental de los usuarios.

Un portavoz de Snap declaró: “Aunque no podemos comentar sobre un litigio activo, nuestros corazones están con cualquier familia que haya perdido a un ser querido por suicidio”.

“Hemos construido intencionadamente Snapchat de forma diferente a las plataformas de redes sociales tradicionales para que la gente se conecte con sus amigos reales y ofrezca recursos de salud mental dentro de la aplicación, incluyendo la prevención del suicidio para los Snapchatters que lo necesiten”.

“Nada es más importante que la seguridad y el bienestar de nuestra comunidad y estamos constantemente explorando formas adicionales de apoyar a nuestros usuarios”.

Chris y Donna Dawley (CNN)
Chris y Donna Dawley (CNN)

Christopher Dawley tenía 17 años cuando se suicidó en 2015, después de desarrollar supuestamente una adicción a las redes sociales que le mantenía despierto “a todas horas de la noche”, cada vez más “obsesionado con su imagen corporal”, y a menudo intercambiando fotos explícitas con otros usuarios.

La demanda lo describe como un activo asistente a la iglesia, golfista, jugador de béisbol y mariscal de campo de fútbol que comenzó a usar las tres aplicaciones alrededor de 2012, cuando tenía 15 años. Aunque “nunca mostró signos externos de depresión o daño mental”, “nunca se separó de su smartphone”, que supuestamente aún sostenía cuando se encontró su cuerpo.

“Esta acción de responsabilidad por productos busca responsabilizar a los productos de los demandados por causar y contribuir a la creciente crisis de salud mental perpetrada sobre los niños y adolescentes en los Estados Unidos por los demandados y, específicamente, por la muerte por suicidio de Christopher J Dawley, causada por su uso adictivo de los productos de redes sociales irrazonablemente peligrosos y defectuosos de los demandados”, indica la demanda.

“Las propias investigaciones de los demandados también apuntan a que el uso de [sus] productos de redes sociales es causa de un aumento de la depresión, de la ideación suicida, de la privación del sueño y de otros graves daños... Además, los demandados han invertido miles de millones de dólares para diseñar y desarrollar intencionadamente sus productos con el fin de alentar, permitir e impulsar contenidos para adolescentes y niños que los demandados saben que son problemáticos y altamente perjudiciales para la salud mental de sus usuarios menores de edad”.

Muchos de sus argumentos sobre las aplicaciones de Meta se basan en la publicación de los llamados Facebook Papers y en el testimonio de su filtradora Frances Haugen ante el Congreso el pasado mes de octubre.

En respuesta a una pregunta de The Independent, un portavoz de Meta expuso las normas de la empresa contra los contenidos gráficos de suicidio y autolesiones, sus intentos de evitar que los contenidos permitidos, pero potencialmente perjudiciales, sean recomendados a los usuarios por sus algoritmos, y su programa de prevención del suicidio que detecta automáticamente los signos de intención suicida y notifica a los servicios de emergencia los casos más peligrosos.

Esta noticia fue actualizada a las 6:22 pm del miércoles 20 de abril de 2022 para añadir una declaración de Snap.

Nuestro objetivo es crear un lugar seguro y atractivo para que los usuarios se conecten en relación con sus intereses. Para mejorar la experiencia de nuestra comunidad, suspenderemos temporalmente los comentarios en los artículos.