La adolescente estadounidense Morgan Pieper estaba a punto de cumplir 12 años cuando empezó a usar las redes sociales.
“Tenía una cuenta de Facebook. Creo que al principio su uso era muy limitado”, dice su madre, Kristina Cahak, a BBC News Brasil.
Sin embargo, Kristina dice que durante los siguientes tres años su hija se volvió cada vez más “adicta”, abriendo cuentas múltiples en redes como Instagram y Snapchat en las que usaba nombres falsos, sin que la familia lo supiera.
“Le afectaba el sueño. A veces me despertaba a las 3 de la madrugada y veía luz en su habitación”, recuerda Kristina, quién empezó a notar cierta melancolía en su hija.
Cuando, alrededor de los 13 años, Morgan comenzó a automutilarse cortándose la piel, Kristina llevó a su hija a un psicólogo, que le dijo que estaba sólo pasando por una fase. “Y realmente mejoró, ella dejó de hacerlo”, dice.
Sin embargo, Morgan continuó viendo y publicando material sobre depresión, autolesiones y suicidio en varias cuentas abiertas con identidades falsas que Kristina ni siquiera sospechaba que existieran.
La familia no descubrió la vida digital paralela de Morgan hasta su suicidio en 2015, a la edad de 15 años.
Morgan era la menor de tres hermanos. “Ella era mi bebé”, dice su madre.
“Era muy inteligente, sensible, divertida y carismática. Uno de los seres humanos más increíbles que he conocido”.
Kristina sospechaba que su hija podía estar deprimida, pero nunca imaginó que tuviera pensamientos suicidas.
“Soy enfermera desde hace casi 30 años, trabajé en salud mental. Esa es la ironía de mi historia, no vi las señales mientras ella todavía estaba con nosotros”, dice.
Kristina es una de los cientos de madres y padres en Estados Unidos que están demandando a las empresas de redes sociales por presuntos “daños físicos, mentales o emocionales” que sufren niños y adolescentes al utilizar estas plataformas.
Presentó una demanda contra Meta, propietaria de Facebook e Instagram, y Snap, propietaria de Snapchat.
Las demandas de otras familias también apuntan a Google, que gestiona YouTube, y a ByteDance, que gestiona TikTok.
Las demandas alegan que la “crisis de salud mental sin precedentes entre los niños” es alimentada por los productos “defectuosos”, “adictivos” y “peligrosos” que estas empresas desarrollan.
El objetivo es que las empresas suspendan prácticas identificadas como nocivas y, en muchos casos,piden una indemnización.
Las empresas rechazan las acusaciones y dicen que implementan y actualizan constantemente herramientas y funciones para proteger a niños y adolescentes en sus plataformas.
Pero los demandantes afirman que las medidas son insuficientes y están mal supervisadas.
Existe gran preocupación por el tema en EE.UU., dados los altos índices de ansiedad y depresión entre los jóvenes.
El año pasado, el portavoz de salud pública del gobierno advirtió que si bien las redes podrían tener beneficios, también podrían plantear riesgos para la salud mental de los jóvenes.
Las investigaciones no ofrecen pruebas concluyentes, y la propia Asociación Estadounidense de Psicología afirma que “el uso de las redes sociales no es inherentemente beneficioso ni perjudicial para los jóvenes”.
Según la asociación, se necesitan más estudios sobre los efectos positivos y negativos de estos servicios.
Lo que dicen las familias
Algunas acciones son iniciadas por los propios jóvenes usuarios, otras por sus familias.
En varios de los casos, cientos de demandas individuales se consolidaron en demandas colectivas en tribunales federales y estatales.
Hay casos de niños que se han quitado la vida después de haber sido acosados en línea o haber visto publicaciones que normalizan y alientan el suicidio.
Otros murieron después de “desafíos” en línea, incluido un juego que implicaba asfixia, o por sobredosis de drogas supuestamente obtenidas a través de las plataformas.
No todos los casos involucran muertes. Algunos niños han sido víctimas de depredadores sexuales, otros enfrentan problemas como trastornos alimentarios, depresión y ansiedad.
“Los alegatos principales son que las plataformas se utilizaron para viciar a los niños”, dijo el abogado Matthew Bergman, fundador del Social Media Victims Law Center (Centro Jurídico para Víctimas de Redes Sociales), que representa a 2,5 millones de clientes en procesos judiciales.
Las demandas argumentan que las empresas exponen deliberadamente a niños y adolescentes a contenidos y productos dañinos.
También afirman que la dependencia que provocan las redes no se produce por casualidad, sino de forma intencionada, ya que fueron diseñadas para un “uso compulsivo y excesivo”.
“Inspirándose en técnicas conductuales y neurobiológicas utilizadas en las máquinas tragamonedas y explotadas por la industria tabacalera, (las empresas) han incorporado deliberadamente en sus productos una serie de características de diseño destinadas a maximizar la participación de los jóvenes para generar ingresos publicitarios”, dice una demanda colectiva presentada por más de 400 familias.
“(Las empresas) saben que los niños se encuentran en una etapa de desarrollo que los deja particularmente vulnerables a los efectos adictivos de estas estrategias. Sin embargo, dirigen (sus esfuerzos) a los niños en busca de ganancias”.
Otras acusaciones señalan que las empresas sabían que sus productos podían causar daño a los jóvenes pero no advirtieron sobre el riesgo ni proporcionaron instrucciones sobre su uso seguro, y que los controles parentales y la verificación de la edad son ineficaces.
También hay acusaciones de que algunas publicaciones en las redes promueven comparaciones negativas sobre la apariencia y que las “facilitan la difusión de material que involucra abuso sexual y explotación de niños”.
“Los defectos varían según la plataforma, pero todos explotan a niños y adolescentes”, afirman las familias en una de las acciones colectivas.
También hay múltiples demandas presentadas por más de 40 estados de EE.UU., más de 140 distritos escolares y sistemas hospitalarios de todo el país con acusaciones similares.
Lo que dicen las empresas
“Las acusaciones simplemente no son ciertas”, le dijo la portavoz de Google, Ivy Choi, a BBC News Brasil.
Choi afirma también que garantizar que los jóvenes tengan una experiencia segura y saludable siempre ha sido un elemento “fundamental”.
“En colaboración con expertos en juventud, salud mental y paternidad, creamos servicios y políticas para proporcionar a los jóvenes experiencias apropiadas para su edad y a los padres controles sólidos”, afirma la portavoz.
A su vez, Snap afirmó en una nota a BBC News Brasil que “Snapchat fue diseñado intencionalmente para ser diferente de las redes sociales tradicionales, con un enfoque en ayudar a los Snapchatters (usuarios) a comunicarse con sus amigos cercanos”.
La compañía señaló como ejemplo de ello el hecho de que, al abrirse, la aplicación dirige al usuario a una cámara, “en lugar de un feed de contenidos que fomenta la navegación pasiva”, y que la plataforma no cuenta con ‘me gusta’ ni comentarios públicos.
Snap destacó además que “la seguridad y el bienestar de su comunidad es nuestra principal prioridad”.
TikTok dijo en un comunicado que la compañía cuenta con mecanismos “pioneros” para proteger a los jóvenes, incluido un límite automático de tiempo de pantalla de 60 minutos para menores de 18 años y controles parentales para las cuentas de adolescentes, además de haber lanzado un manual para que los padres discutan temas relacionados con la seguridad digital con los jóvenes.
“Continuaremos trabajando para mantener segura a nuestra comunidad mientras enfrentamos estos desafíos que son comunes a toda la industria”, dijo la red social.
En respuesta a las acusaciones, Meta compartió un resumen de su trabajo para “ayudar a brindar experiencias seguras” a los jóvenes, señalando que cuenta con “alrededor de 40.000 profesionales trabajando en áreas relacionadas con la seguridad” y ha invertido “más de US$20.000 millones desde 2016”.
La compañía dijo que en los últimos ocho años, ha desarrollado más de 30 herramientas y funciones, incluidos controles que permiten a los padres establecer límites para el uso de sus servicios por parte de los adolescentes, ver a quién siguen sus hijos y saber si han denunciado a alguien que podría estar acosándolos.
Estrategias y obstáculos
Uno de los obstáculos en los juicios contra las redes sociales en Estados Unidos es la sección 230 de la ley federal que rige el sector de las comunicaciones, aprobada en 1996, antes de que las plataformas se popularizaran.
Políticos demócratas y republicanos han intentado derogar o revisar la sección sin éxito.
El artículo 230 exime a las redes de responsabilidad por lo publicado por terceros, lo que dificulta demandar alegando daños sufridos por los usuarios en las plataformas.
Como resultado, muchos casos son descartados incluso antes de ir a juicio.
Las demandas actuales se basan en un argumento diferente: que los supuestos daños no resultan de publicaciones de terceros, sino del hecho de que las plataformas son un producto que tiene “defectos”.
“Nos centramos en el diseño defectuoso de estas plataformas”, dice Bergman.
“Y en el hecho de que fueron diseñadas para ser adictivas y que carecen de características de seguridad básicas que, si se implementaran, las harían entre un 80% y un 90% más seguras de lo que son hoy”.
Así, en teoría, las empresas podrían ser consideradas responsables de negligencia, al no cumplir con su deber de diseñar productos seguros y advertir a los usuarios sobre defectos.
Bergman dice que el simple hecho de que las empresas sean demandadas ante los tribunales es importante, independientemente del resultado.
“Los ejecutivos tendrán que testificar bajo juramento y explicar cómo se benefician de plataformas que no permiten que utilicen sus propios hijos“, afirma.
Bergman fundó el Social Media Victims Law Center en 2021, tras décadas representando a personas perjudicadas por la exposición al asbesto, en demandas contra empresas por ocultar el vínculo del producto con casos de cáncer.
Dice que una de las motivaciones para cambiar su campo de acción fueron las revelaciones que hizo una ex empleada de Facebook ese año.
“No sólo quería garantizar una compensación para las víctimas, sino también evitar que otros fueran victimizados”, afirma.
Bergman dice que las mismas características de los casos de asbesto aplican a las redes sociales.
“Pero el nivel de mala conducta empresarial que veo en las redes sociales hace que, en comparación, las empresas de asbesto parezcan niños de coro”.
Los juicios de los primeros casos representados por Bergman no están previstos hasta finales del próximo año y, según él, aún queda un largo camino por recorrer.
Pero el abogado destaca la determinación de las familias de sacar adelante los casos y evitar que otros pasen por el mismo sufrimiento.
Kristina dice que el suicidio de Morgan la inspiró a luchar para ayudar a otras familias.
Dice que mucho ha cambiado desde la muerte de su hija, hace casi diez años, y que hoy hay una mayor conciencia sobre los problemas de salud mental entre los jóvenes y los riesgos potenciales de las redes sociales.
“Los padres deben ser conscientes de estos peligros. Incluso si creen que saben lo que hacen sus hijos, probablemente no lo sepan”.
Fuente: BBC News Mundo
Mas noticias
Fuerza Investigativa Anticriminal logró la captura de 55 presuntos antisociales
En Manta, dos aprehendidos presuntos implicados en el asesinato de tres personas
En alta mar Policía capturó a ocho presuntos implicados en transportar 4.5 toneladas de cocaína