{"id":53964,"date":"2025-12-15T06:38:13","date_gmt":"2025-12-15T10:38:13","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=53964"},"modified":"2025-12-15T06:38:13","modified_gmt":"2025-12-15T10:38:13","slug":"tiktok-hace-poco-por-evitar-que-su-plataforma-se-convierta-en-una-mina-para-los-pedofilos-apunta-investigacion-de-malditas-es","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=53964","title":{"rendered":"TikTok hace poco por evitar que su plataforma se convierta en \u201cuna mina para los ped\u00f3filos\u201d, apunta investigaci\u00f3n de Malditas.es"},"content":{"rendered":"<p> \n<\/p>\n<div>\n<p>Una investigaci\u00f3n del medio de comunicaci\u00f3n espa\u00f1ol <em>Malditas.es<\/em> encontr\u00f3 que en TikTok no solo proliferan los videos que sexualizan a menores de edad, sino tambi\u00e9n se promueven estos contenidos por medio de su algoritmo, usuarios se benefician econ\u00f3micamente de su difusi\u00f3n, y la plataforma dif\u00edcilmente llega a sancionar las cuentas que violan sus propias normas de conducta en esta materia.<\/p>\n<p>Los periodistas se enfocaron tanto en cuentas que publicaban videos de ni\u00f1as y adolescentes generados con inteligencia artificial, como en aquellas que recopilan contenido de menores creados por cuentas reales. En los contenidos generados con IA, las menores visten bikinis, uniformes escolares o ropa ajustada, a menudo creadas con la propia herramienta de TikTok, AI Alive, o con Sora, de OpenAI. Puedes leer la investigaci\u00f3n completa por este enlace.<\/p>\n<hr\/>\n<div class=\"ContentCardEmbedWrapper-kFpFGN dpdjmB content-card-embed content-card-embed--stacked\" data-testid=\"ContentCardEmbedWrapper\">\n<div class=\"ContentCardEmbedImage-iBIXcR jiOHKG content-card-embed__image\" data-testid=\"ContentCardEmbedImage\"><span class=\"SpanWrapper-zEXFr koTknX responsive-asset\"><picture class=\"ResponsiveImagePicture-cGZhnX jwYQWO responsive-image\"><img decoding=\"async\" alt=\"violencia sexual digital\" loading=\"lazy\" class=\"ResponsiveImageContainer-eNxvmU cfBbTk responsive-image__image\" srcset=\"https:\/\/media.es.wired.com\/photos\/68f5072b5b250c071463ec73\/master\/w_120,c_limit\/Wr-Violencia.jpg 120w, https:\/\/media.es.wired.com\/photos\/68f5072b5b250c071463ec73\/master\/w_240,c_limit\/Wr-Violencia.jpg 240w, https:\/\/media.es.wired.com\/photos\/68f5072b5b250c071463ec73\/master\/w_320,c_limit\/Wr-Violencia.jpg 320w, https:\/\/media.es.wired.com\/photos\/68f5072b5b250c071463ec73\/master\/w_640,c_limit\/Wr-Violencia.jpg 640w\" sizes=\"100vw\" src=\"https:\/\/media.es.wired.com\/photos\/68f5072b5b250c071463ec73\/master\/w_775%2Cc_limit\/Wr-Violencia.jpg\"\/><\/picture><\/span><\/div>\n<div class=\"ContentCardEmbedInfo-bSBhwc IbulD\">\n<div class=\"BaseWrap-sc-gzmcOU BaseText-eqOrNE ContentCardEmbedHed-kuAbUL deqABF jkWAvF fPZrfS content-card-embed__hed\" data-testid=\"ContentCardEmbedHed\">Odio, porno y <em>compromiso<\/em>: las redes que normalizan la violencia sexual digital<\/div>\n<p>Acoso, humillaci\u00f3n, im\u00e1genes \u00edntimas filtradas en redes sociales con miles de usuarios, deepfakes sexuales violentos, violencia asistida por Alexa. La tecnolog\u00eda facilita la violencia sexual contra las mujeres. El odio es el mismo, las herramientas para defenderse de \u00e9l, no.<\/p>\n<\/div>\n<\/div>\n<hr\/>\n<p>Malditas.es analiz\u00f3 decenas cuentas de este tipo en la plataforma, muchas de las cuales usan palabras como \u201ccolegialas\u201d en su nombre. Seg\u00fan el medio, estas cuentas acumulan m\u00e1s de un mill\u00f3n de seguidores y han publicado miles de videos en la <em>aplicaci\u00f3n<\/em>. Encima de eso, en muchas publicaciones se leen comentarios que hacen sugerencias sexuales a las menores (sean reales o no), o lo que es m\u00e1s problem\u00e1tico, incluyen enlaces a cuentas de Telegram o p\u00e1ginas de internet donde venden o intercambian pornograf\u00eda infantil.<\/p>\n<figure class=\"AssetEmbedWrapper-fkZDUs kHRAYC asset-embed\">\n<div class=\"AssetEmbedAssetContainer-eEeytc eRSvCP asset-embed__asset-container\"><span class=\"SpanWrapper-zEXFr koTknX responsive-asset AssetEmbedResponsiveAsset-cIfZLr fHIkTW asset-embed__responsive-asset\"><picture class=\"ResponsiveImagePicture-cGZhnX jwYQWO AssetEmbedResponsiveAsset-cIfZLr fHIkTW asset-embed__responsive-asset responsive-image\"><img decoding=\"async\" alt=\"Maldici\u00f3n\" loading=\"lazy\" class=\"ResponsiveImageContainer-eNxvmU cfBbTk responsive-image__image\" srcset=\"https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_120,c_limit\/tiktokmalditas.jpg 120w, https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_240,c_limit\/tiktokmalditas.jpg 240w, https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_320,c_limit\/tiktokmalditas.jpg 320w, https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_640,c_limit\/tiktokmalditas.jpg 640w, https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_960,c_limit\/tiktokmalditas.jpg 960w, https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_1280,c_limit\/tiktokmalditas.jpg 1280w, https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_1600,c_limit\/tiktokmalditas.jpg 1600w\" sizes=\"100vw\" src=\"https:\/\/media.es.wired.com\/photos\/693f00e41620fa6456d0a077\/master\/w_1600%2Cc_limit\/tiktokmalditas.jpg\"\/><\/picture><\/span><\/div>\n<div class=\"CaptionWrapper-jYrTxZ byeLF caption AssetEmbedCaption-fyuOdR eXMqGf asset-embed__caption\" data-testid=\"caption-wrapper\"><span class=\"BaseWrap-sc-gzmcOU BaseText-eqOrNE CaptionText-brNLzD deqABF imSbFE fGraOh caption__text\"><\/p>\n<p>V\u00eddeos originales y republicados por estas cuentas, respectivamente.<\/p>\n<p><\/span><span class=\"BaseWrap-sc-gzmcOU BaseText-eqOrNE CaptionCredit-eowWKH deqABF kpqIso gxwcqg caption__credit\">TikTok v\u00eda Malditas.es<\/span><\/div>\n<\/figure>\n<p>De esta manera, TikTok es una <em>aplicaci\u00f3n<\/em> que sirve de puerta de acceso a varias actividades il\u00edcitas, pero la plataforma hace poco por frenar esta tendencia. A trav\u00e9s de las opciones que brinda la <em>aplicaci\u00f3n<\/em>, <em>Malditas.es<\/em> denunci\u00f3 15 cuentas que compart\u00edan videos de menores sexualizadas generados con IA, pero la plataforma determin\u00f3 que solo una incumpl\u00eda sus pol\u00edticas y todas las dem\u00e1s segu\u00edan operando 72 horas despu\u00e9s.<\/p>\n<p>Las propias normas de la empresa indican que \u201ccuentas centradas en im\u00e1genes de IA de j\u00f3venes con atuendos para adultos, o poses o expresiones faciales sexualizadas\u201d no est\u00e1n permitidas, as\u00ed como aquellas que sexualizan o fetichizan a un menor de edad.<\/p>\n<p>A\u00fan as\u00ed, hay perfiles que no solo siguen operando impunemente, sino llegan a obtener beneficios econ\u00f3micos al monetizar contenido e interacciones exclusivas a trav\u00e9s del sistema de suscripci\u00f3n de TikTok, empresa que se queda hasta con el 50% de las ganancias. Por si fuera poco, como parte de su investigaci\u00f3n <em>Malditas.es<\/em> cre\u00f3 un perfil falso de un usuario que consum\u00eda contenido que sexualizaba a menores, y el algoritmo de TikTok le recomend\u00f3 videos de este tipo en el muro \u2018Para ti\u2019 y en el buscador.<\/p>\n<p>En lo que respecta a los comentarios en las publicaciones, el medio detect\u00f3 m\u00faltiples im\u00e1genes expl\u00edcitas de actos sexuales, as\u00ed como peticiones de contactar a las menores en los videos. Esto resulta alarmante cuando se trata de videos reales que han sido extra\u00eddos de otras cuentas, ya que en algunos de los videos recogidos por <em>Malditas.es<\/em>a\u00fan resultaban legibles las fuentes de los perfiles originales, exponiendo a las menores a situaciones de peligro, como el <em>aseo<\/em>.<\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>Una investigaci\u00f3n del medio de comunicaci\u00f3n espa\u00f1ol Malditas.es encontr\u00f3 que en TikTok no solo proliferan los videos que sexualizan a menores de edad, sino tambi\u00e9n se promueven estos contenidos por medio de su algoritmo, usuarios se benefician econ\u00f3micamente de su difusi\u00f3n, y la plataforma dif\u00edcilmente llega a sancionar las cuentas que violan sus propias normas &hellip;<\/p>\n","protected":false},"author":1,"featured_media":53966,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/media.es.wired.com\/photos\/693f08cc6847de69a4e96012\/16:9\/w_1280,c_limit\/tiktokdepredadores.jpg","fifu_image_alt":"","footnotes":""},"categories":[765],"tags":[],"class_list":["post-53964","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-peliculas"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/53964","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=53964"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/53964\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/53966"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=53964"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=53964"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=53964"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}