El nuevo proyecto de ley deepfake requeriría que las grandes tecnologías controlen y eliminen imágenes de IA sexualmente explícitas


WASHINGTON – Los legisladores en el Capitolio están luchando para abordar el auge de las imágenes pornográficas falsificadas con inteligencia artificial, que se han dirigido a todos, desde celebridades hasta estudiantes de secundaria.

Ahora, un nuevo proyecto de ley buscará responsabilizar a las empresas de redes sociales por vigilar y eliminar imágenes deepfake sexualmente explícitas no consensuadas publicadas en sus sitios. La medida penalizaría la publicación o la amenaza de publicar pornografía deepfake.

El senador Ted Cruz, republicano por Texas, es el principal patrocinador del proyecto de ley. La oficina de Cruz proporcionó a CNBC detalles exclusivos sobre el proyecto de ley.

La Ley Take It Down también requeriría que los operadores de plataformas de redes sociales desarrollen un proceso para eliminar las imágenes dentro de las 48 horas posteriores a la recepción de una solicitud válida de una víctima. Además, los sitios también tendrían que hacer un esfuerzo razonable para eliminar cualquier otra copia de las imágenes, incluidas las compartidas en grupos privados.

La tarea de hacer cumplir estas nuevas reglas recaería en la Comisión Federal de Comercio, que regula las normas de protección al consumidor.

La legislación de Cruz será presentada formalmente el martes por un grupo bipartidista de senadores. A ellos se unirán en el Capitolio las víctimas del porno deepfake, incluidos estudiantes de secundaria.

El aumento de imágenes no consensuales generadas por IA ha impactado a celebridades como Taylor Swift, políticos como la representante Alexandria Ocasio-Cortez, DN.Y., y estudiantes de secundaria cuyos compañeros de clase tomaron imágenes de sus rostros y, utilizando aplicaciones y herramientas de IA, crearon fotografías de desnudos o pornográficas.

“Al crear igualdad de condiciones a nivel federal y responsabilizar a los sitios web de implementar procedimientos para eliminar estas imágenes, nuestro proyecto de ley protegerá y empoderará a todas las víctimas de este crimen atroz”, dijo Cruz en un comunicado a CNBC.

Proyectos de ley del Senado en duelo

En 2023, los productores de deepfakes sexualmente explícitos no consensuales aumentaron su producción en un 464% año tras año, según un informe de Home Security Heroes.

Sin embargo, si bien existe un amplio consenso en el Congreso sobre la necesidad de abordar la pornografía deepfake basada en IA, no hay acuerdo sobre cómo hacerlo.

En cambio, hay dos proyectos de ley en competencia en el Senado.

El senador Dick Durbin, demócrata por Illinois, presentó un proyecto de ley bipartidista a principios de este año que permitiría a las víctimas de deepfakes no consensuales demandar a las personas que habían tenido, creado, poseído o distribuido la imagen.

Según el proyecto de ley de Cruz, la pornografía deepfake con IA se trata como contenido en línea extremadamente ofensivo, lo que significa que las empresas de redes sociales serían responsables de moderar y eliminar las imágenes.

Cuando Durbin intentó conseguir una votación en el pleno para su proyecto de ley la semana pasada, la senadora Cynthia Lummis, republicana por Wyoming, bloqueó el proyecto de ley, diciendo que tenía “un alcance demasiado amplio” y que podría “sofocar la innovación tecnológica estadounidense”.

Durbin defendió su proyecto de ley diciendo que “no hay responsabilidad bajo esta propuesta de ley para las plataformas tecnológicas”.

Lummis es uno de los copatrocinadores originales del proyecto de ley de Cruz, junto con la senadora republicana Shelley Moore Capito y los senadores demócratas Amy Klobuchar, Richard Blumenthal y Jacky Rosen.

El nuevo proyecto de ley también se presenta mientras el líder de la mayoría del Senado, Chuck Schumer, DN.Y., está presionando a su cámara para que avance en la legislación sobre IA. El mes pasado, un grupo de trabajo sobre inteligencia artificial publicó una “hoja de ruta” sobre cuestiones clave de la IA que incluía el desarrollo de legislación para abordar la “distribución no consensuada de imágenes íntimas y otros deepfakes dañinos”.

Verifique también

Continúa búsqueda de sospechoso de tiroteo masivo en Kentucky cerca de una autopista

Se está llevando a cabo una búsqueda de un sospechoso “armado y peligroso” en relación …

Comments are closed.