
El 7 de octubre, una cuenta de TikTok llamada @fujitiva48 planteó una pregunta provocadora junto a su último video. «¿Qué opinas de este nuevo juguete para niños pequeños?», preguntó a más de 2,000 espectadores, que se habían topado con lo que parecía ser una parodia de anuncio de televisión. La respuesta fue clara. «Esto no tiene gracia», escribió una persona. «Quienquiera que haya hecho esto debería ser investigado».
Bromas que no dan risa
Es fácil ver por qué el video suscitó una reacción tan fuerte. El falso anuncio comienza con una niña fotorrealista que sostiene un juguete rosa, brillante, con un abejorro adornando el mango. Es un bolígrafo, nos dicen, mientras la niña y otras dos personas garabatean en un papel y un hombre adulto narra en voz en apagado. Pero es evidente que el diseño floral del objeto, su capacidad para zumbar y su nombre, Vibro Rose, se parecen mucho a un juguete sexual. Un botón «añade el tuyo» (la función de TikTok que anima a la gente a compartir el video en sus alimenta) con las palabras «Estoy usando mi juguete rosa» disipa hasta la más mínima duda. WIRED se puso en contacto con la cuenta @fujitiva48 para pedir comentarios, pero no obtuvo respuesta.
El desagradable clip se creó con Sora 2, el último generador de vídeo de OpenAI, que se lanzó inicialmente solo por invitación en EE UU el 30 de septiembre. En apenas una semana, videos como el de Vibro Rose salieron de Sora y llegaron a la página ‘For You’ de TikTok. WIRED descubrió varias cuentas que publicaban videos similares generados por Sora 2 en los que aparecían juguetes de agua con forma de rosa o de hongo y decoradores de pasteles que lanzaban chorros de «leche pegajosa», «espuma blanca» o «sustancia viscosa» sobre imágenes reales de niños.
En muchos países, lo anterior sería motivo de investigación si se tratara de niños reales y no de amalgamas digitales. Pero la legislación sobre contenidos fetichistas generados por inteligencia artificial en los que intervienen menores sigue siendo confusa. Los nuevos datos de 2025 de la Internet Watch Foundation (IWF) del Reino Unido señalan que las denuncias de material de abuso sexual infantil generado por IA, o CSAM, se han duplicado en el lapso de un año, pasando de 199 entre enero y octubre de 2024 a 426 en el mismo período de 2025. El 56% de este contenido pertenece a la categoría A, la más grave del Reino Unido, que incluye actividad sexual con penetración, actividad sexual con un animal o sadismo. El 94% de las imágenes ilegales de IA rastreadas por IWF eran de niñas (Sora no parece estar generando ningún contenido de Categoría A).
«A menudo vemos cómo se mercantiliza la imagen de niños reales para crear desnudos o imágenes sexuales y, sobre todo, vemos cómo se utiliza la IA para crear imágenes de niñas. Es otra forma de atacar a las niñas en internet», explica a WIRED Kerry Smith, directora ejecutiva de la IWF.
Esta afluencia de material nocivo generado por IA ha incitado al Reino Unido a introducir una nueva enmienda en su Proyecto de Ley sobre Delincuencia y Policía, que permitirá a «probadores autorizados» comprobar que las herramientas de inteligencia artificial no son capaces de generar CSAM. Tal y como ha informado la BBC, esta enmienda garantizaría que los modelos dispongan de salvaguardas en torno a imágenes específicas, incluidas la pornografía extrema y las imágenes íntimas no consentidas en particular. En EE UU, 45 estados han aplicado leyes para penalizar el CSAM generado por IA, la mayoría en los últimos dos años, a medida que los generadores de IA siguen evolucionando.
Barreras que no funcionan
OpenAI, creadora de Sora 2, ha puesto en marcha medidas que impiden que los jóvenes vean sus caras en deepfakes pornográficos. La función de la aplicación por la que los usuarios graban su imagen para incrustarla en los videos generados (antes llamada Cameo, pero ahora rebautizada temporalmente) funciona con consentimiento y puede revocarse en cualquier momento. También hay una norma que garantiza que los perfiles de adultos no puedan enviar mensajes a adolescentes. La aplicación prohíbe rotundamente el CSAM, y las políticas de OpenAI establecen que sus plataformas «nunca deben utilizarse para explotar, poner en peligro o sexualizar a menores de 18 años», y OpenAI informa al Centro Nacional para Menores Desaparecidos y Explotados de cualquier material de abuso sexual infantil o que ponga en peligro a menores.
Pero, ¿qué ocurre en el caso de algo como los juguetes rosa? Estos videos son lo bastante llamativos en su señalización para que los comentaristas de TikTok, los YouTubers y los creadores de contenidos inviten a un debate serio sobre sus peligros, y sin embargo los creadores parecen ser capaces de hacerlos eludiendo las barreras de OpenAI. Aunque no se trata de pornografía duro ni de deepfakes dirigidos a niños reales, cuando se suben junto con declaraciones destacadas, muestran una aparente intención de ‘cultivar’ para los depredadores.
Últimas noticias de última hora Portal de noticias en línea