La expresión “rape academy” empezó a circular a partir de una investigación de CNN sobre comunidades digitales donde hombres comparten material de mujeres dormidas o inconscientes, intercambian consejos para sedarlas y discuten cómo filmar el abuso sin ser detectados. Entre los datos que más se viralizaron aparece un sitio, Motherless.com, donde se habrían encontrado más de 20.000 videos etiquetados como contenido “sleep”, además de un tráfico de alrededor de 62 millones de visitas en febrero. Ese punto importa: metodológicamente, hablar de “visitas” no equivale a hablar de “62 millones de hombres” ni de usuarios únicos identificados, sino de tráfico total sobre la plataforma.
Esa precisión no achica el problema; lo vuelve más serio. Porque lo que aparece ahí no es una suma de casos individuales sino una arquitectura de validación entre pares: usuarios que suben videos, otros que comentan, otros que enseñan, otros que venden sustancias o dispositivos, y plataformas que facilitan circulación, archivo y monetización. El punto más inquietante no es solo que haya agresores, sino que exista un ecosistema digital que les permite aprender, perfeccionarse y sentirse acompañados.
El patrón no es exclusivo de un sitio. En 2025, Reuters informó sobre un caso en Alemania en el que fiscales acusaron a un hombre de múltiples delitos, entre ellos violaciones agravadas, tras drogar a mujeres; parte del caso conectaba con grupos de Telegram donde se compartía información sobre cómo agredir a mujeres inconscientes. Ese mismo año, otra investigación de Reuters mostró que en China circulaban en Telegram imágenes y videos de mujeres filmadas sin consentimiento en grupos con cientos de miles de usuarios, incluidos contenidos subidos por parejas o ex parejas.
Más recientemente, un informe citado por Euronews describió en España e Italia un “ecosistema de abuso a escala” en Telegram: casi 25.000 personas distribuyendo material sexual no consentido y pornografía infantil, con una lógica que mezcla exposición, negocio y tecnología. El estudio además señala que bots de “nudificación” ya se promocionan dentro de esos canales para ampliar el volumen y la velocidad del daño.
Ahí aparece una idea clave: la misoginia digital ya no funciona solamente como discurso de odio o subcultura de foro. Son eslabones de producción. Hay captura de imágenes, clasificación, circulación, pago, tutoriales, archivos y herramientas específicas.
En ese contexto, la crisis alrededor de Grok, el sistema de xAI vinculado a Elon Musk, no es un episodio separado. Es la misma lógica, pero automatizada. Reuters documentó que Grok generó imágenes sexualizadas de mujeres reales y también detectó casos en los que produjo imágenes sexualizadas de menores. En otra investigación, Reuters comprobó que el sistema seguía generando imágenes degradantes o sexualizadas incluso cuando los usuarios advertían explícitamente que las personas retratadas no habían consentido.
Eso cambia la escala del problema. Antes, para humillar sexualmente a una mujer hacía falta encontrar imágenes, editarlas, circularlas y sostener cierto esfuerzo técnico. Ahora alcanza con subir una foto y escribir un prompt. Reuters remarcó justamente que esa clase de herramientas reduce drásticamente la barrera de entrada, convirtiendo una práctica antes más marginal en una acción instantánea y masiva dentro de una plataforma de gran alcance.
Por eso la discusión no debería centrarse solo en si un chatbot “se equivocó” o tuvo una falla puntual de moderación. Cuando un sistema responde a pedidos de desvestir, degradar o sexualizar personas reales, lo que está fallando no es solo un filtro: está fallando una concepción completa de producto. La violencia ya no es solamente algo que circula a pesar de la tecnología; empieza a circular gracias a funciones que la vuelven fácil, replicable y viralizable. Eso explica por qué Ofcom abrió una investigación sobre X por preocupaciones vinculadas a imágenes íntimas no consentidas generadas por Grok, y por qué distintos gobiernos reaccionaron con presión regulatoria.
Hay algo cultural, pero también económico. Si una plataforma descubre que la sexualización, el shock y la humillación generan atención, viralidad y permanencia, la transgresión deja de ser un exceso periférico y empieza a comportarse como una ventaja competitiva. Esa es la zona más peligrosa: cuando el límite moral se redefine como innovación o libertad de uso.
Common Sense Media fue especialmente dura con Grok y concluyó que no es seguro para adolescentes: señaló fallas en la identificación de menores, debilidad de resguardos y generación frecuente de material sexual, violento e inapropiado. UNICEF, por su parte, pidió criminalizar la creación de material de abuso sexual infantil generado con IA, reclamó enfoques de safety by design y alertó que al menos 1,2 millones de niños en 11 países reportaron que sus imágenes fueron manipuladas en deepfakes sexualmente explícitos durante el último año.
El problema, entonces, no es solo moral ni psicológico. Es de gobernanza tecnológica. Qué se permite entrenar. Qué se bloquea. Qué se detecta. Qué se monetiza. Qué se remueve rápido. Y qué se tolera mientras siga produciendo tráfico.
La “rape academy” y el caso Grok cuentan una misma historia: la de una cultura digital que vuelve a correr los límites de lo tolerable cada vez que una nueva capa tecnológica convierte el daño en algo más simple de producir. Primero fue el foro, después el grupo privado, después el algoritmo que amplifica y ahora el modelo que genera. La pregunta ya no es si la tecnología puede ser usada para la violencia. La pregunta es por qué seguimos diseñando sistemas que la vuelven cada vez más fácil.