
Una investigación reciente expone un fenómeno poco considerado en los videos e imágenes profundo que buscan imponer una narrativa: estos contenidos siguen influyendo en las personas, incluso cuando saben que están viendo material falso generado con sistemas de inteligencia artificial (IA).
El hallazgo adquiere especial relevancia en un momento en que gobiernos y reguladores diseñan políticas públicas para contener la oleada de deepfakes en redes sociales. Los científicos advierten que la estrategia de transparencia por sí sola, como las marcas de agua que ya aplican Google, Meta, OpenAI o Adobe en sus videos, no basta para mitigar su impacto.
“Se debería esperar que la gente ignore el contenido de un video que sepan que es falso, al menos a la hora de formar creencias sobre asuntos fácticos, porque no tiene ninguna conexión evidencial con la realidad. Sin embargo, la investigación psicológica existente sobre los efectos de la desinformación pone en duda la capacidad de las personas para descartar un profundo”, explican los autores en su estudio publicado este mes en Psicología de la Comunicación.
Impresiones y creencias
Los psicólogos de la Universidad de Bristol, en Inglaterra, analizaron el impacto de los deepfakes con una premisa sencilla. Si un juez debe decidir la situación jurídica de una persona y recibe un video claramente etiquetado como falso donde el acusado confiesa un delito, ¿hasta qué punto ese contenido influye en su juicio? La respuesta, basada en cientos de participantes, muestra que el material creado con IA deja una “impresión” persistente capaz de moldear decisiones posteriores.
El equipo deseñó tres experimentos con más de 600 participantes. En cada uno, presentó videos creados exclusivamente para el estudio: versiones reales y versiones profundo de la misma escena, donde un personaje admitía un delito o una falta moral. Antes de verlos, algunos participantes recibieron una advertencia explícita de que el video era un profundo; otros, una advertencia genérica; y un tercer grupo, ninguna. Después, todos evaluaron si creían que la persona del video era culpable y si pensaban que el video era falso.
El diseño permitió comparar la capacidad de detectar la falsedad y el grado en que el contenido influía en el juicio moral. Aunque las etiquetas ayudaron a contextualizar el material, muchos participantes siguieron usando el video falso para evaluar al supuesto acusado. La tendencia se repitió en los tres experimentos y con distintos tipos de deepfakes. Esa consistencia llevó a los investigadores a concluir que la transparencia, por sí sola, apenas reduce el poder persuasivo de estos contenidos.
“Nuestros hallazgos apoyan el argumento de que algunas personas emplean una heurística de ‘ver es creer’ para hacer un juicio personal sobre la autenticidad de un vídeo, incluso cuando se les ha advertido específicamente de que es falso”, concluyen los autores.
¿Por qué usar un video falso?
Una última pregunta permitió explorar por qué los participantes seguían pensando en el video falso para formarse una opinión. Varios afirmaron que detectaron detalles que les hicieron dudar de las advertencias impuestas por los investigadores, aunque dichos elementos no existían o formaban parte del diseño experimental.
“Esto sugiere una falta de confianza en las advertencias de transparencia, o al menos en la advertencia específica que usamos”, aclaran los expertos. También plantean que podrían influir factores no evaluados, como la plataforma que emite la advertencia o si proviene de una autoridad oficial.
Últimas noticias de última hora Portal de noticias en línea
