Coches bomba autónomos, reclutamiento online: los expertos se preocupan por cómo la IA puede transformar el terrorismo

Únase a Fox News para acceder a este contenido

Además, obtendrás acceso especial a artículos seleccionados y otros contenidos premium con tu cuenta, ¡sin cargo alguno!

Al ingresar su correo electrónico y presionar continuar, usted acepta los Términos de uso y la Política de privacidad de Fox News, que incluye nuestro Aviso de incentivo financiero.

Por favor, introduce una dirección de correo electrónico válida.

¿Tiene problemas? Haga clic aquí.

Los expertos temen que los terroristas encuentren usos novedosos y problemáticos para la inteligencia artificial (IA), incluidos nuevos métodos para lanzar explosivos y mejorar sus iniciativas de reclutamiento en línea.

“La realidad es que la IA puede ser extremadamente peligrosa si se utiliza con intenciones maliciosas”, escribió Antonia Marie De Meo, directora del Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia, en un informe que analiza cómo los terroristas podrían utilizar la IA.

“Con un historial probado en el mundo del cibercrimen, es una herramienta poderosa que podría emplearse para facilitar aún más el terrorismo y el extremismo violento que conduce al terrorismo”, agregó, citando los coches bomba autónomos, el aumento de los ciberataques o la búsqueda de caminos más fáciles para difundir el discurso de odio o incitar a la violencia en línea.

El informe, “Algoritmos y terrorismo: el uso malintencionado de la inteligencia artificial con fines terroristas”, concluye que las fuerzas de seguridad deberán seguir estando a la vanguardia de la IA.

TOM HANKS ADVERTENCIA SOBRE ANUNCIOS DE ‘DROGAS MARAVILLOSAS’ CON INTELIGENCIA ARTIFICIAL: ‘NO SE DEJEN ESTAFAR’

“Nuestra aspiración es que [this report] “Es el comienzo de la conversación sobre el uso malicioso de la IA con fines terroristas”, escribió De Meo.

Ciudad de Nueva York

Una vista de la sede de las Naciones Unidas en la ciudad de Nueva York el 16 de julio de 2024. (Jakub Porzycki/NurPhoto vía Getty Images)

El informe señaló que la tarea de mantenerse un paso por delante de los terroristas y anticipar cómo pueden usar la IA resultará una tarea difícil, ya que requiere no solo pensar en formas de usar la IA que nadie ha considerado antes, sino también descubrir cómo impedir que alguien emplee ese mismo método.

El informe respalda un estudio de una colaboración entre el COE-DAT de la OTAN y el Instituto de Estudios Estratégicos de la Escuela de Guerra del Ejército de Estados Unidos, “Tecnologías emergentes y terrorismo: una perspectiva estadounidense”, que sostuvo que “los grupos terroristas están explotando estas herramientas para el reclutamiento y los ataques”.

EL ROBOT DE 6 RUEDAS QUE CONTROLA SITUACIONES PELIGROSAS PARA QUE LOS HUMANOS NO TENGAN QUE HACERLO

“La línea entre la realidad y la ficción se desdibuja en la era de la rápida evolución tecnológica, lo que insta a los gobiernos, las industrias y el mundo académico a unirse para crear marcos y regulaciones éticas”, escribieron los autores en el prólogo.

“A medida que cambian las mareas geopolíticas, la OTAN enfatiza la responsabilidad nacional en la lucha contra el terrorismo y aboga por la fuerza colectiva contra el espectro inminente de las amenazas impulsadas por la tecnología”, agregaron los autores.

Un combatiente palestino del brazo armado de Hamás participa en un desfile militar

Un terrorista de Hamás participa en un desfile militar. (Reuters/Ibraheem Abu Mustafa/Foto de archivo)

LOS EXPERTOS ADVIERTEN QUE LA IA PODRÍA GENERAR “GRANDES EPIDEMIAS O INCLUSO PANDEMIAS”, ¿PERO CUÁN PRONTO?

El estudio señala casos generales de uso de ChatGPT de OpenAI para “mejorar los correos electrónicos de phishing, instalar malware en bibliotecas de código abierto, difundir desinformación y crear propaganda en línea”.

“Los cibercriminales y los terroristas se han vuelto rápidamente expertos en el uso de dichas plataformas y grandes modelos de lenguaje en general para crear deepfakes o chatbots alojados en la red oscura para obtener información personal y financiera confidencial o para planificar ataques terroristas o reclutar seguidores”, escribieron los autores.

“Es probable que este uso malintencionado aumente en el futuro a medida que los modelos se vuelvan más sofisticados”, añadieron. “La forma en que se almacenan y distribuyen las conversaciones confidenciales y las búsquedas en Internet a través de plataformas de inteligencia artificial o mediante grandes modelos de lenguaje requerirá más transparencia y controles”.

A principios de este año, el Centro de Lucha contra el Terrorismo de West Point publicó una investigación sobre el tema, centrándose en la capacidad de mejorar las capacidades de planificación para ataques terroristas, yendo más allá de simplemente mejorar lo que ya se está haciendo.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?

Combatientes de Hezbolá asisten al funeral de su comandante Wissam al-Tawil

Combatientes de Hezbolá asisten al funeral de su comandante, Wissam al-Tawil, en la aldea de Khirbet Selm, en el sur del Líbano, el 9 de enero de 2024. (Foto AP/Hussein Malla, Archivo)

“En concreto, los autores investigaron las posibles implicaciones de los comandos que se pueden introducir en estos sistemas para efectivamente ‘liberar’ el modelo, permitiéndole eliminar muchos de sus estándares y políticas que impiden que el modelo base proporcione contenido extremista, ilegal o poco ético”, explicaron los autores en su resumen.

“Utilizando múltiples relatos, los autores exploraron las diferentes formas en que los extremistas podrían potencialmente utilizar cinco grandes modelos de lenguaje diferentes para apoyar sus esfuerzos de entrenamiento, realización de planificación operativa y desarrollo de propaganda”.

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Las pruebas revelaron que Bard era el modelo más resistente al jailbreak (o a la evasión de las barreras de seguridad), seguido de cada uno de los modelos de ChatGPT. Principalmente, encontraron indicaciones indirectas relativamente suficientes para jailbreakear un modelo en más de la mitad de los casos.

El estudio concluyó que las barreras de protección contra fugas de la cárcel necesitan una revisión constante y “una mayor cooperación entre los sectores público y privado”, incluidos el mundo académico, las empresas tecnológicas y la comunidad de seguridad.

Verifique también

EEUU sanciona a facilitadores de pago entre Moscú y Pionyang – DW – 19/09/2024

Estados Unidos sancionó este jueves (19.09.2024) a cinco entidades ya una persona por su implicación …

Comments are closed.