Red 764: Padres de víctima demandan a Discord por suicidio
Según la demanda, Discord "proporcionó a 764 un número ilimitado de víctimas", incluyendo a Jay Taylor, de 13 años, quien en enero de 2022 se suicidó frente a un supermercado en Gig Harbor, Washington.
WBAL News Radio
20 de febrero de 2026
(NUEVA YORK) — Los padres de un adolescente del área de Seattle, presuntamente empujado a suicidarse por un miembro de la red extremista en línea "764", presentaron una demanda por homicidio culposo contra Discord, alegando que el gigante de las redes sociales "causó" el suicidio de su hijo e "instigó a una de las sectas de abuso infantil más depravadas y peligrosas de la historia moderna".
Según la demanda, Discord "proporcionó a 764 un número ilimitado de víctimas", incluyendo a Jay Taylor, de 13 años, quien en enero de 2022 se suicidó frente a un supermercado en Gig Harbor, Washington.
"Lo que sucedió es casi bíblico en su definición de maldad", declaró el padre de Jay Taylor, Colby, a ABC News en una entrevista exclusiva en noviembre.
Como ABC News informó previamente, los miembros de 764 encuentran víctimas vulnerables en plataformas populares, les extraen información privada e imágenes sexuales íntimas, y luego usan ese material sensible para chantajear a las víctimas para que se mutilen, dañen a otros o realicen otras acciones violentas.
Los miembros de 764 suelen organizar chats en vivo en línea para que otros puedan presenciar las autolesiones y la violencia en tiempo real. Cuanto más presionen a sus víctimas, mayor prestigio y respeto recibirán dentro de 764, según las autoridades.
“Discord [proporcionó] a 764 acceso a su plataforma, no tomó medidas razonables para prevenir o interrumpir dicha explotación y mantuvo el mismo diseño de producto y las mismas configuraciones predeterminadas que permitieron el abuso”, alega la nueva demanda de 31 páginas.
Colby Taylor declaró previamente a ABC News que él y su esposa, Leslie, se preparaban para presentar una demanda contra Discord, con la esperanza de que las acciones legales presionaran a la plataforma a tomar más medidas para detener a los depredadores en línea. La demanda se presentó el jueves en un tribunal del condado de Pierce, Washington, solicitando una indemnización por daños y perjuicios no especificada. Como lo describieron los Taylor a ABC News, Jay Taylor era una víctima vulnerable. Era "gracioso" y "dulce", y tenía un don para el dibujo y las manualidades, recordó su madre. Pero a principios de 2021, la pandemia de COVID-19 dejó a Jay sintiéndose aislado y solo. Y aunque le asignaron sexo femenino al nacer, se encontraba en plena transición de género, lo que agravó su sentimiento de soledad, dijeron sus padres.
En enero de 2022, Jay publicó un mensaje en Discord: "Busco amigos, preferiblemente LGBTQ para crochet", recordó su padre.
Alguien respondió al mensaje de Jay, lo que lo involucró en un chat en vivo con varias personas. En aproximadamente una hora, los demás en el chat grupal comenzaron a decirle a Jay que debería suicidarse, relataron sus padres.
Un usuario de Discord que se hacía llamar "Tigre Blanco" en línea lideraba la ofensiva, incitando a otros a presionar y manipular a Jay, según sus padres.
“Finalmente, la presión se apoderó de Jay”, afirma la demanda.
El FBI identificó posteriormente a “Tigre Blanco” como un joven estudiante de medicina germano-iraní de Hamburgo, Alemania. Actualmente está siendo juzgado en Hamburgo, acusado del asesinato de Jay Taylor y de más de 200 cargos adicionales por el presunto abuso de decenas de víctimas. Según la demanda de los Taylor, Discord representa “un riesgo previsible de daño para los usuarios jóvenes” y “no es razonablemente seguro tal como fue diseñado”.
“Desde el principio, Discord diseñó una plataforma estructuralmente repleta de características obvias que amplificaban los riesgos, y cuando esos riesgos se materializaron a través de 764, Discord la albergó, la expandió y, mientras tanto, se comercializó entre más usuarios menores de edad, garantizando su explotación”, afirma la demanda.
La demanda también alega que Discord “se niega a invertir en medidas de seguridad sensatas” y “deliberadamente carece de personal y recursos suficientes para su equipo de seguridad y respuesta, empleando solo una fracción mínima de lo necesario para controlar eficazmente la conducta abusiva”. 764 fue creado en Discord por un adolescente de Stephenville, Texas, quien le puso el nombre de los tres primeros dígitos de su código postal local. Nacido en medio de la pandemia de COVID-19, cuando los adolescentes se encontraban confinados en casa y acudían en masa a espacios en línea, 764 fue una derivación aún más violenta de otros grupos en línea que explotaban a menores mediante el chantaje y la autolesión, según las autoridades.
Desde entonces, 764 se ha extendido por todo el mundo, convirtiéndose más en una ideología que en un grupo único, según los expertos. Y otros grupos, inspirados por 764, se han formado con nombres diferentes, pero con tácticas y objetivos idénticos. En noviembre, el FBI investigaba a más de 350 personas en Estados Unidos con presuntos vínculos con 764 o redes similares.
La cifra no ha hecho más que aumentar desde entonces, según los expertos. El martes, el presidente del Comité de Supervisión y Reforma Gubernamental de la Cámara de Representantes, James Comer, republicano por Kentucky, envió una carta al director del FBI, Kash Patel, exigiendo que los funcionarios del FBI informen al personal del comité sobre los esfuerzos de la agencia para rastrear y detener a los miembros de 764.
Citando informes de ABC News, Comer escribió que las "tácticas inquietantes atribuidas a esta red" justifican una "supervisión rigurosa y una evaluación de si las contramedidas federales existentes son eficaces y cuentan con los recursos adecuados para combatir a estos escurridizos perpetradores en línea".
En septiembre, Patel declaró ante los legisladores durante una audiencia pública en el Senado que la lucha contra el 764 es ahora "una prioridad" para el FBI. Calificó los delitos relacionados con el 764 como una nueva forma de "terrorismo moderno en Estados Unidos".
El viernes, un portavoz de Discord afirmó que la compañía está revisando la nueva demanda presentada por Colby y Leslie Taylor.
Después de que ABC News entrevistara a los Taylor hace varios meses, un representante de Discord declaró a ABC News que la plataforma está "comprometida con la seguridad de los usuarios" y que las "acciones atroces de grupos como este no tienen cabida en Discord ni en ningún otro ámbito de la sociedad".
Según un portavoz de Discord, la plataforma realiza una inversión considerable en equipos especializados y herramientas de inteligencia artificial de reciente desarrollo que pueden "interrumpir estas redes, eliminar contenido infractor y tomar medidas contra los actores maliciosos en nuestra plataforma".
Discord también afirmó que comparte información con otras plataformas, lo que puede ayudar a identificar a los actores maliciosos incluso antes de que Discord los detecte, y que coopera con las fuerzas del orden, brindándoles pistas y otra información de forma proactiva.
Sus pistas han dado lugar a numerosos arrestos, incluido el de Bradley Cadenhead, el adolescente texano que fundó 764 y que ahora cumple una condena de 80 años en una prisión estatal tras declararse culpable de cargos relacionados con pornografía infantil. Además, Discord anunció recientemente nuevas herramientas destinadas a brindar a los padres mayor control y mayor información sobre las cuentas de sus hijos.
Enlace a la noticia de WBAL News Radio