Riesgos de la inteligencia artificial en la política: ¿Qué debes saber?


La política, un terreno ya cargado de tensión y controversia, enfrenta un nuevo desafío en la era digital. “Los ‘deepfakes’ y la desinformación están entre los mayores riesgos para la democracia”, afirma Gabriela Sued, investigadora postdoctoral en el Instituto de Investigaciones de Matemáticas Aplicadas y Sistemas de la Universidad Nacional Autónoma de México, en declaraciones a la Voz de América.

Sued, que estudia los riesgos de la inteligencia artificial, explica que existe una tensión entre la regulación y la innovación tecnológica, ya que algunos “temen que las regulaciones puedan restringir la innovación y la libertad de expresión”. “Sin embargo, es esencial equilibrar estos factores para proteger los derechos de la ciudadanía”, aclara.

En sus declaraciones a la VOAla académica hizo referencia al Informe sobre Riesgos Globales 2024 del Foro Económico Mundial, que señala la difusión de información errónea y la desinformación como “graves amenazas” en los próximos años, destacando el posible aumento de la propaganda y la censura nacional.

Ese informe apunta que el uso político malintencionado de la IA plantea graves riesgos, pues la rápida propagación de deepfakes y contenidos generados por IA “dificulta cada vez más a los propensos discernir la información”.

Eso, argumenta el Foro Económico Mundial, puede influir en el comportamiento de los votantes y socavar el proceso democrático, influenciando elecciones, erosionando la confianza pública en las instituciones, generando malestar social e incluso incentivando la violencia.

Elon Musk, protagonista

El reciente incidente en Estados Unidos en el que Elon Musk, propietario de Tesla y de la plataforma X, entre otras compañías, compartió un video falso atribuyendo a la vicepresidenta Kamala Harris una afirmación sobre el presidente Joe Biden ha encendido las alarmas.

El video en cuestión, creado con tecnología de “deepfake”, mostraba a Harris diciendo: “Yo, Kamala Harris, soy su candidata demócrata a la presidencia porque Joe Biden finalmente expuso su senilidad en el debate”.

Este episodio, según Sued, ha puesto de manifiesto las vulnerabilidades del proceso electoral frente a las nuevas tecnologías, impulsando a California a proponer una regulación más estricta sobre el uso de la inteligencia artificial (IA) en campañas políticas.

El gobernador de California, Gavin Newsom, no tardó en reaccionar. En una publicación en la plataforma X, Newsom expresó su preocupación por el uso de la IA para manipular la información política. “Manipular una voz en un ‘anuncio’ como este debería ser ilegal”, aseguró. “Firmaré un proyecto de ley en cuestión de semanas para asegurarme de que así lo sea”, dijo.

Tiffany Li, profesora asociada de Derecho en la Facultad de Derecho de la Universidad de San Francisco, donde imparte cursos sobre propiedad intelectual y derecho tecnológico, considera que la amenaza que representa la manipulación IA para la democracia es “considerable”.

“Imagina que la gente ve un video de un candidato presidencial diciendo algo que nunca dijo, algo que resulta ofensivo o dañino. Eso puede influir en cómo votan las personas”, advierte Li en una entrevista con la VOA.

El académico señala no solo un peligro inminente para la democracia, sino también un riesgo tangible para figuras públicas y celebridades, quienes pueden ser víctimas de manipulaciones que distorsionan su imagen y afectan su reputación. “Las autoridades deben desarrollar regulaciones que frenen la propagación de videos falsos en internet, aunque esto no es tan sencillo como decir sí o no”, reconoce.

El enfoque de la Unión Europea

En este sentido, Sued, de la UNAM, también menciona el enfoque de la Unión Europea, donde los productos creados con IA deben ser claramente etiquetados. “Este enfoque regula la materialidad del contenido sin interferir en su interpretación, a diferencia de Estados Unidos, donde la regulación tiende a centrarse más en el contenido del producto”, explica.

Este método, sugiere, podría ofrecer una solución más equilibrada frente al desafío de la desinformación tecnológica.

El Parlamento Europeo aprobó en marzo la Ley de Inteligencia Artificial, que tiene como objetivo garantizar la seguridad y el respeto de los derechos fundamentales, al tiempo que pretende impulsar la innovación.

Las nuevas normas, de acuerdo con el texto legislativo, prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados ​​en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial, entre otros.

El paso de California

Por su parte, California, bajo la dirección de Newsom, está decidida a marcar un precedente en territorio estadounidense. La propuesta de regulación, según medios de comunicación locales, no solo busca prohibir la manipulación de voces en anuncios políticos, sino que también establecerá sanciones para quienes utilicen la IA con multas de desinformación.

Esta legislación podría convertirse en un modelo a seguir para otros estados, enfatizando la necesidad de un enfoque proactivo en la protección de la democracia frente a las amenazas emergentes de la era digital.

Por otro lado, las plataformas de redes sociales ya tienen sus regulaciones implementadas. Meta, la empresa propietaria de Facebook e Instagram, exige que los “medios manipulados” se etiqueten como cuentos y que se adjunte un contexto a la publicación.

En marzo, Google, propietaria de YouTube, anunció una política que exige a los usuarios que publiquen vídeos que revelen cuándo “el contenido que un espectador podría confundir fácilmente con una persona, un lugar, una escena o un acontecimiento real” está “realizado con medios alterados o sintéticos, incluida la IA generativa”.

La política actual de X se instituyó en abril de 2023, después de que Musk asumiera el cargo. Defina los medios engañosos como contenidos que están “alterados, manipulados o fabricados de forma significativa y engañosa” y que “es probable que generen una confusión generalizada sobre cuestiones públicas”. Dicho contenido, establece la política, debe etiquetarse o eliminarse.

El uso indebido de la inteligencia artificial en la política no es una amenaza menor, según las expertos consultadas por la VOAsino que es un desafío real que pone en riesgo la integridad de los procesos democráticos.

¡Conéctate con la Voz de América! Suscríbete a nuestros canales de YouTube, WhatsApp y todos hoja informativa. Activa las notificaciones y síguenos en Facebook, incógnita mi Instagram.



Verifique también

Un grupo de ‘hackers’ norcoreanos se infiltra en un centenar de tecnologías para financiar a Kim Jong-un | Tecnología

Corea del Norte está sacando provecho de una de las grandes tendencias de los últimos …

Comments are closed.