

La madre de un niño de California de 15 años que se quitó la vida ahora está demandando a Roblox y Discord por su muerte, alegando que su hijo fue preparado y coaccionado para enviar imágenes explícitas en las aplicaciones.
Rebecca Dallas presentó la demanda el viernes en el Tribunal Superior del Condado de San Francisco acusando a las empresas de «operar imprudentemente y engañosamente sus negocios de una manera que condujo a la explotación sexual y el suicidio» de Ethan Dallas.
Ethan era un «niño brillante e imaginativo que amaba los juegos, transmitiendo e interactuando con amigos en línea», dice la demanda. Comenzó a jugar en la plataforma de juegos en línea Roblox alrededor de los 9 años, con la aprobación de sus padres y con controles parentales en su lugar. Cuando tenía 12 años, fue blanco de «un depredador sexual adulto» que se hizo pasar por un niño en Roblox y se hizo amigo de Ethan, dijeron los abogados de Rebecca Dallas en un comunicado.
Lo que comenzó como una conversación inocente «gradualmente se intensificó a temas sexuales e intercambios explícitos», dice la queja.
Después de un tiempo, el hombre alentó a Ethan a apagar los controles de los padres y trasladar sus conversaciones a Discord, dijeron los abogados.
En Discord, el hombre «exigió cada vez más fotografías y videos explícitos» y amenazó a Ethan de que publicaría o compartiría las imágenes. Ethan cumplió por miedo, dice la denuncia.
«Trágicamente, Ethan fue dañado y perseguido permanentemente por estas experiencias, y murió por suicidio a la edad de 15 años», dijo la denuncia. Murió en abril de 2024, según un obituario en línea.
La demanda acusa a Roblox y la discordia de la muerte injusta, la ocultación fraudulenta y las tergiversaciones, la tergiversación negligente y la responsabilidad estricta.
Argumenta que si RoBlox y Discord tomaron medidas para evaluar a los usuarios antes de permitirlos en aplicaciones, o implementar la verificación de edad e identidad y otras medidas de seguridad, «Ethan nunca habría interactuado con este depredador, nunca sufrió el daño que hizo, y nunca murió por suicidio».
Aplicaciones no seguras para niños, dice el traje
Dallas, del condado de San Diego, pensó que ambas plataformas eran seguras para que su hijo usara para comunicarse con amigos mientras jugaba, dada la forma en que las aplicaciones se comercializaban y los controles de los padres que estableció, según la demanda.
Roblox es utilizado diariamente por 111 millones de personas, según su sitio web, que ofrece una variedad de juegos, cursos de obstáculos y la capacidad de chatear con otros usuarios. Es libre de hacer una cuenta y no hay una edad mínima, ni la verificación de edad requerida.
Discord, lanzado en 2015, es una plataforma de comunicaciones comúnmente utilizada por los jugadores que desean chatear o chatear por video mientras juegan videojuegos. La demanda decía que la aplicación no verifica la edad o la identidad.
La demanda afirma que Roblox permitió a Ethan apagar los controles de los padres y la discordia le permitió crear una cuenta y comunicarse con adultos sin ninguna supervisión de los padres. Dijo que si bien Roblox afirma que los niños deben tener permiso de los padres para inscribirse, «nada les impide crear sus propias cuentas y jugar en Roblox».
La demanda alega Las dos aplicaciones tergiversaron la seguridad en sus plataformas, diciendo que el diseño de las aplicaciones «hace que los niños se presidan fáciles de los pedófilos» debido a la falta de salvaguardas y la detección de depredadores.
Después de la trágica muerte de Ethan, su familia se enteró de la policía que el hombre que lo preparó había sido arrestado en Florida «por explotar sexualmente a otros niños a través de las aplicaciones de los acusados», dijo la queja.
Hoy, la configuración predeterminada de Roblox no permite que los adultos envíen mensajes directamente a niños menores de 13 años, pero los niños aún pueden crear cuentas con fechas de nacimiento falsas que les dan acceso completo a las opciones de mensajería directa, según la queja.
«Estamos profundamente tristes por esta trágica pérdida. Si bien no podemos comentar sobre las reclamaciones planteadas en litigios, siempre nos esforzamos por mantenernos al más alto nivel de seguridad», dijo un portavoz de Roblox a NBC News.
Roblox dijo que está diseñado con «rigurosas características de seguridad incorporadas» y está «innovando continuamente nuevas características de seguridad, más de 100 solo este año, que protegen a nuestros usuarios y capacitan a los padres y cuidadores con un mayor control y visibilidad».
Los esfuerzos de seguridad incluyen procesos para detectar y actuar sobre comportamientos problemáticos y moderación humana 24/7. Roblox agregó que la compañía se asocia con la aplicación de la ley y las principales organizaciones de seguridad mental y seguridad mental en todo el mundo para combatir la explotación sexual de los niños.
Si bien Discord tiene configuraciones para mantener a los menores seguros, como escanear automáticamente los mensajes para obtener imágenes y videos explícitos, la demanda dijo que Discord está «desbordante con imágenes y videos sexualmente explícitos que involucran a niños, incluido el material de abuso sexual de anime y de niños».
Discord dijo que no hace comentarios sobre asuntos legales, pero dijo que la plataforma está «profundamente comprometida con la seguridad».
«Requerimos que todos los usuarios tengan al menos 13 años para usar nuestra plataforma. Utilizamos una combinación de tecnología avanzada y equipos de seguridad capacitados para encontrar y eliminar de manera proactiva el contenido que viola nuestras políticas», dijo un portavoz. «Mantenemos sistemas sólidos para evitar la propagación de la explotación sexual y la preparación en nuestra plataforma y también trabajamos con otras compañías de tecnología y organizaciones de seguridad para mejorar la seguridad en línea en Internet».
Otras acusaciones contra Roblox, Discord
Anapol Weiss, la firma que presentó la demanda de Dallas, señaló que esta es la novena demanda que ha presentado en relación con las acusaciones de que los niños fueron preparados, explotados o agredidos después del contacto en Roblox o plataformas relacionadas.
El Centro Nacional de Explotación Sexual en 2024 cumplió con una lista de «docena sucia» de derechos convencionales que dice que facilitar, habilitar y beneficiarse del abuso sexual y la explotación. Incluyó Discord, diciendo que «esta plataforma es popular entre los depredadores que buscan preparar a los niños y con los escudos que buscan crear, comerciar o encontrar contenido sexual de niños y adultos desprevenidos», y Roblox, diciendo que los niños están expuestos a juegos de temática sexual y expuestos a depredadores.
Una investigación de noticias de NBC en 2023 encontró 35 casos durante los seis años anteriores en los que los adultos fueron procesados por cargos de secuestro, preparación o agresión sexual que supuestamente involucraba comunicaciones sobre la discordia.
En agosto, el principal fiscal de Louisiana demandó a Roblox, alegando que su fracaso en implementar protocolos de seguridad fuertes para niños lo ha convertido en «el lugar perfecto para los pedófilos».
«Este caso queda al descubierto las consecuencias devastadoras cuando las plataformas de mil millones de dólares diseñan a sabiendas entornos que permiten a los depredadores aprovechar a los niños vulnerables», dijo Alexandra Walsh, Un socio de Anapol Weiss. «Estas compañías están rastrando miles de millones. Los niños están pagando el precio».
Dallas busca un juicio con jurado y daños compensatorios.
Si usted o alguien que conoce está en crisis, llame o envíe un mensaje de texto al 988, o vaya a 988lifeline.orgpara alcanzar la línea de vida de suicidio y crisis. También puede llamar a la red, anteriormente conocida como National Suicide Prevention Lifeline, al 800-273-8255, o visitar Speakingofsuicide.com/resources.
Últimas noticias de última hora Portal de noticias en línea