{"id":57396,"date":"2026-01-28T20:40:11","date_gmt":"2026-01-29T00:40:11","guid":{"rendered":"https:\/\/noticiasveraces.com\/?p=57396"},"modified":"2026-01-28T20:40:11","modified_gmt":"2026-01-29T00:40:11","slug":"las-tiendas-de-google-y-apple-estan-plagadas-de-apps-que-te-desnudan-con-ia","status":"publish","type":"post","link":"https:\/\/noticiasveraces.com\/?p=57396","title":{"rendered":"Las tiendas de Google y Apple est\u00e1n plagadas de apps que te desnudan con IA"},"content":{"rendered":"<p> \n<\/p>\n<div>\n<p>El estudio tambi\u00e9n detect\u00f3 riesgos adicionales. Una proporci\u00f3n considerable de las <em>aplicaciones<\/em> analizadas est\u00e1 clasificada como apta para usuarios de entre 4 y 12 a\u00f1os de edad, a pesar de que ofrecen funciones para eliminar ropa o generar videos con bailes de car\u00e1cter er\u00f3tico. El documento advierte, adem\u00e1s, que muchas de estas aplicaciones tienen su sede en China, lo que plantea preocupaciones sobre la posible captura de datos biom\u00e9tricos y fotograf\u00edas sensibles.<\/p>\n<p>Katie Paul, directora del Tech Transparency Project, explic\u00f3 que \u201clas leyes de retenci\u00f3n de datos en China establecen que el gobierno chino tiene derecho a acceder a la informaci\u00f3n de cualquier empresa local. Por lo tanto, si alguien est\u00e1 creando desnudos falsos de ti con estas aplicaciones, esas im\u00e1genes podr\u00edan quedar en manos del gobierno chino\u201d.<\/p>\n<p>El reporte tambi\u00e9n se\u00f1ala que los sistemas de control implementados por Apple y Google resultan ineficientes. La App Store proh\u00edbe aplicaciones que generen \u201ccontenido ofensivo, insensible, perturbador, con intenci\u00f3n de causar repugnancia, de muy mal gusto o abiertamente sexual o pornogr\u00e1fico\u201d. De forma similar, la Play Store veta las representaciones de desnudez, las poses sexualmente sugerentes y las aplicaciones que degraden o cosifiquen a las personas.<\/p>\n<p>Sin embargo, como subraya el TTP, estas pol\u00edticas \u201cno han logrado mantenerse al ritmo de la proliferaci\u00f3n de aplicaciones <em>profundo<\/em> impulsadas por IA que pueden \u2018desnudar\u2019 a personas sin su permiso. Aunque ambas compa\u00f1\u00edas afirman estar comprometidas con la seguridad de sus usuarios, <strong>contin\u00faan albergando un conjunto de aplicaciones capaces de transformar una fotograf\u00eda inocente de una mujer en una imagen abusiva y sexualizada<\/strong>\u00ab.<\/p>\n<h2><em>falsificaciones profundas<\/em> sexuales creados con IA a la alza<\/h2>\n<p>Tras la publicaci\u00f3n del informe, Apple elimin\u00f3 28 de las aplicaciones se\u00f1aladas, mientras que Google retir\u00f3 31. No obstante, los expertos advierten que estas acciones no resuelven el problema de fondo, ya que las <em>aplicaciones<\/em> eliminadas suelen reaparecer bajo otros nombres o con descripciones aparentemente inofensivas. El estudio recomienda que ambas empresas refuercen sus mecanismos para detectar funciones de \u201cdesnudo\u201d ocultas detr\u00e1s de t\u00edtulos enga\u00f1osos, como supuestos editores de anime o probadores virtuales de ropa. Asimismo, sugiere cambios estructurales en los sistemas de revisi\u00f3n de las tiendas de aplicaciones para desalentar la proliferaci\u00f3n de herramientas con alto atractivo comercial pero con riesgos significativos.<\/p>\n<p>El informe se da a conocer despu\u00e9s de que decenas de usuarios de X (antes Twitter) explotaran las capacidades de Grok para generar versiones sexualizadas de fotograf\u00edas de mujeres y menores de edad sin su consentimiento. De acuerdo con diversos reportes, el <em>chatbot<\/em> de IA habr\u00eda generado cerca de 3 millones de im\u00e1genes sexualizadas y m\u00e1s de 22,000 que involucraban a ni\u00f1os en un periodo de apenas 11 d\u00edas.<\/p>\n<p>Especialistas en tecnolog\u00eda y derechos digitales advierten que el contenido sexual generado con IA ha experimentado un crecimiento acelerado conforme se ampl\u00eda el acceso a herramientas de inteligencia artificial generativa. Solo en los primeros nueve meses de 2023, se subieron aproximadamente 113,000 videos de este tipo a sitios <em>web<\/em> para adultos, frente a los 73,000 registrados en todo 2022. Tambi\u00e9n se estima que los videos sexualmente expl\u00edcitos creados con IA representan el 98% de todo el contenido <em>profundo<\/em> que circula en l\u00ednea. Durante el \u00faltimo a\u00f1o, este material aument\u00f3 un 400% y alcanz\u00f3 un tr\u00e1fico mensual superior a los 34 millones de usuarios en 2023.<\/p>\n<p>Ante este escenario, OpenAI, Google, Meta, Microsoft, Amazon y otras cinco empresas tecnol\u00f3gicas anunciaron un compromiso conjunto para combatir la creaci\u00f3n y difusi\u00f3n de material sexual abusivo generado con IA. Como parte de este esfuerzo, acordaron adoptar los principios de <em>Seguridad por dise\u00f1o<\/em>un enfoque que sit\u00faa la seguridad y los derechos de los usuarios en el centro del dise\u00f1o y desarrollo de productos y servicios. No obstante, la eficacia real de este mecanismo ha sido cuestionada en repetidas ocasiones.<\/p>\n<\/div>\n\n","protected":false},"excerpt":{"rendered":"<p>El estudio tambi\u00e9n detect\u00f3 riesgos adicionales. Una proporci\u00f3n considerable de las aplicaciones analizadas est\u00e1 clasificada como apta para usuarios de entre 4 y 12 a\u00f1os de edad, a pesar de que ofrecen funciones para eliminar ropa o generar videos con bailes de car\u00e1cter er\u00f3tico. El documento advierte, adem\u00e1s, que muchas de estas aplicaciones tienen su &hellip;<\/p>\n","protected":false},"author":1,"featured_media":57397,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"https:\/\/media.es.wired.com\/photos\/697a445360c8b06e9e66199c\/16:9\/w_1280,c_limit\/apps%20que%20desnundan%20Google%20Play%20App%20Store%20533250164.jpg","fifu_image_alt":"","footnotes":""},"categories":[763],"tags":[],"class_list":["post-57396","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-estilo-de-vida"],"_links":{"self":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/57396","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=57396"}],"version-history":[{"count":0,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/posts\/57396\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=\/wp\/v2\/media\/57397"}],"wp:attachment":[{"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=57396"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=57396"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/noticiasveraces.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=57396"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}