Los expertos advierten que la IA podría generar “grandes epidemias o incluso pandemias”, pero ¿cuán pronto?

Los expertos que investigan los avances en inteligencia artificial ahora advierten que los modelos de IA podrían crear los próximos “patógenos mejorados capaces de causar grandes epidemias o incluso pandemias”.

La declaración fue hecha en un artículo publicado en la revista Science por coautores de la Universidad Johns Hopkins, la Universidad de Stanford y la Universidad de Fordham, quienes dicen que los modelos de IA están siendo “entrenados en o [are] capaz de manipular significativamente cantidades sustanciales de datos biológicos, desde acelerar el diseño de medicamentos y vacunas hasta mejorar el rendimiento de los cultivos”.

“Pero, como sucede con cualquier tecnología nueva y poderosa, estos modelos biológicos también plantearán riesgos considerables. Debido a su naturaleza de uso general, el mismo modelo biológico capaz de diseñar un vector viral benigno para administrar terapia génica podría usarse para diseñar un virus más patógeno capaz de evadir la inmunidad inducida por la vacuna”, escribieron los investigadores en su resumen.

“Los compromisos voluntarios entre los desarrolladores para evaluar las capacidades potencialmente peligrosas de los modelos biológicos son significativos e importantes, pero no pueden ser independientes”, continúa el documento. “Proponemos que los gobiernos nacionales, incluido Estados Unidos, aprueben leyes y establezcan reglas obligatorias que impidan que los modelos biológicos avanzados contribuyan sustancialmente a peligros a gran escala, como la creación de patógenos nuevos o mejorados capaces de causar grandes epidemias o incluso pandemias”.

EL EJÉRCITO IMPULSA NUEVAS ESTRATEGIAS PARA SALVAGUARDAR A LAS TROPAS BAJO EL PLAN DE IMPLEMENTACIÓN DE IA

La gente hace fila en Washington, DC para recibir una prueba de coronavirus

La gente hace fila para recibir pruebas de coronavirus en Washington, DC, en diciembre de 2021. Un nuevo artículo publicado en Science advierte sobre los riesgos potenciales de los modelos de IA biológica. (Ting Shen/Xinhua vía Getty Images)

Aunque los modelos de IA actuales probablemente no “contribuyan sustancialmente” a los riesgos biológicos, los “ingredientes esenciales para crear modelos biológicos avanzados altamente preocupantes pueden ya existir o existirán pronto”, dijeron los autores del artículo según Time.

Según se informa, recomiendan que los gobiernos creen una “batería de pruebas” que los modelos de IA biológica deben realizar antes de ser lanzados al público, y luego a partir de allí los funcionarios pueden determinar qué tan restringido debe ser el acceso a los modelos.

“Tenemos que planificar ahora”, dijo Anita Cicero, subdirectora del Centro de Seguridad Sanitaria de Johns Hopkins y una de las coautoras del artículo, según Time. “Será necesario que exista cierta supervisión y requisitos gubernamentales estructurados para reducir los riesgos de herramientas especialmente poderosas en el futuro”.

Según se informa, Cicero agregó que los riesgos biológicos de los modelos de IA podrían convertirse en una realidad “dentro de los próximos 20 años, y tal vez incluso mucho menos” sin la supervisión adecuada.

ELON MUSK APOYA EL PROYECTO DE LEY DE REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL EN CALIFORNIA: “UNA DECISIÓN DIFÍCIL”

Variante de COVID

Los autores del artículo escriben que “el mismo modelo biológico capaz de diseñar un vector viral benigno para administrar terapia genética podría usarse para diseñar un virus más patógeno capaz de evadir la inmunidad inducida por la vacuna”. (iStock)

“Si la pregunta es si la IA puede usarse para diseñar pandemias, con toda seguridad y en cuanto a hasta qué punto en el futuro deberíamos preocuparnos por ello, creo que la IA está avanzando a un ritmo para el que la mayoría de las personas no están preparadas”, dijo a Fox News Digital Paul Powers, experto en IA y director ejecutivo de Physna, una empresa que ayuda a las computadoras a analizar modelos 3D y objetos geométricos.

“El problema es que no son sólo los gobiernos y las grandes empresas los que tienen acceso a estas capacidades cada vez más poderosas, sino también los individuos y las pequeñas empresas”, continuó, pero señaló que “el problema con la regulación aquí es que, por mucho que todos quieran un conjunto global de reglas para esto, la realidad es que se aplica a nivel nacional. En segundo lugar, la regulación no avanza a la velocidad de la IA. La regulación ni siquiera puede seguir el ritmo de la tecnología como lo ha hecho hasta ahora, con la velocidad tradicional”.

“Lo que están proponiendo es que el gobierno apruebe ciertos modelos de entrenamiento de IA y ciertas aplicaciones de IA. Pero la realidad es cómo se controla eso”, dijo Powers.

niño recibiendo vacuna

Un niño recibe la vacuna Pfizer-BioNTech COVID-19 en Bloomfield Hills, Michigan, el 13 de mayo de 2021. (Jeff Kowalsky/AFP vía Getty Images)

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

“Hay ciertos ácidos nucleicos que son esencialmente los componentes básicos de cualquier posible patógeno o virus real”, agregó Powers, y dijo: “Yo empezaría por ahí… Comenzaría realmente a tratar de determinar quién puede acceder primero a los componentes básicos”.

Verifique también

Un grupo de ‘hackers’ norcoreanos se infiltra en un centenar de tecnologías para financiar a Kim Jong-un | Tecnología

Corea del Norte está sacando provecho de una de las grandes tendencias de los últimos …

Comments are closed.