Subscribe to our YouTube channel
Un tribunal de apelaciones de Estados Unidos reactivó el martes una demanda presentada por la madre de una niña de 10 años de Pensilvania que falleció al intentar un desafío viral que, supuestamente, vio en TikTok. El reto, conocido como «blackout challenge» (desafío del desmayo), alentaba a las personas a ahogarse hasta perder el conocimiento.
Aunque la ley federal generalmente protege a los editores en línea de la responsabilidad por contenido publicado por terceros, la corte señaló que TikTok podría ser considerado responsable por promover el contenido o utilizar un algoritmo que lo dirija a los niños.
«TikTok toma decisiones sobre el contenido que recomienda y promueve a usuarios específicos, y al hacerlo, está involucrado en su propio discurso de primera parte«, escribió la jueza Patty Shwartz del 3er Circuito de la Corte de Apelaciones de Filadelfia en la opinión emitida el martes.
Los abogados de ByteDance, la empresa matriz de TikTok, no respondieron de inmediato a las solicitudes de comentarios.
Los abogados de Tawainna Anderson, madre de Nylah Anderson, argumentaron que el desafío apareció en el feed «Para Ti» de la niña después de que TikTok determinara que ella podría estar interesada en verlo, incluso después de que otros niños murieran al intentar el mismo reto.
Nylah Anderson fue encontrada inconsciente en el armario de su casa en Chester, cerca de Filadelfia, y su madre intentó reanimarla. La niña, descrita por su familia como una «mariposa» amante de la diversión, falleció cinco días después.
«No puedo dejar de reproducir ese día en mi mente«, dijo su madre en una conferencia de prensa en 2022, cuando presentó la demanda. «Es hora de que estos desafíos peligrosos lleguen a su fin para que otras familias no experimenten el dolor que vivimos todos los días».
Un juez de distrito había desestimado inicialmente la demanda, citando la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que suele proteger a las empresas de internet de la responsabilidad por el contenido publicado en sus sitios.
El panel de tres jueces de la corte de apelaciones revirtió parcialmente esa decisión el martes, enviando el caso de vuelta al tribunal inferior para juicio.
«Nylah, aún en su primer año de adolescencia, probablemente no tenía idea de lo que estaba haciendo o de que seguir las imágenes en su pantalla la mataría. Pero TikTok sabía que Nylah vería esos videos porque el algoritmo personalizado de la empresa los colocó en su página ‘Para Ti‘», escribió el juez Paul Matey en una opinión concurrente parcial.
Jeffrey Goodman, abogado de la familia, dijo que es «inevitable» que los tribunales den más escrutinio a la Sección 230 a medida que la tecnología se adentra en todos los aspectos de nuestras vidas. La familia espera que la decisión ayude a proteger a otros, aunque no devuelva a Nylah Anderson.
«La opinión de hoy es la declaración más clara hasta la fecha de que la Sección 230 no proporciona la protección generalizada que las empresas de redes sociales han estado reclamando«, dijo Goodman.