Cosas que debe saber sobre una cumbre sobre seguridad de la IA en Seúl

Corea del Sur organizará una minicumbre esta semana sobre riesgos y regulación de la inteligencia artificial, después de una reunión inaugural sobre seguridad de la IA en Gran Bretaña el año pasado que atrajo a una multitud diversa de luminarias tecnológicas, investigadores y funcionarios.

La reunión en Seúl tiene como objetivo aprovechar el trabajo iniciado en la reunión del Reino Unido para controlar las amenazas que plantean los sistemas de inteligencia artificial de última generación.

Esto es lo que necesita saber sobre la Cumbre AI de Seúl y las cuestiones de seguridad de la IA.

CÓMO LA INTELIGENCIA ARTIFICIAL ESTÁ REFORMANDO LA GUERRA MODERNA

¿QUÉ ESFUERZOS INTERNACIONALES SE HAN REALIZADO EN MATERIA DE SEGURIDAD DE LA IA?

La cumbre de Seúl es uno de los muchos esfuerzos globales para crear barreras protectoras para la tecnología que avanza rápidamente y que promete transformar muchos aspectos de la sociedad, pero también ha generado preocupaciones sobre nuevos riesgos tanto para la vida cotidiana como el sesgo algorítmico que distorsiona los resultados de búsqueda y posibles amenazas existenciales. a la humanidad.

En la cumbre del Reino Unido de noviembre, celebrada en una antigua base secreta de descifrado de códigos en tiempos de guerra en Bletchley, al norte de Londres, investigadores, líderes gubernamentales, ejecutivos de tecnología y miembros de grupos de la sociedad civil, muchos de ellos con puntos de vista opuestos sobre la IA, se reunieron en conversaciones a puerta cerrada. El director ejecutivo de Tesla, Elon Musk, y el director ejecutivo de OpenAI, Sam Altman, se mezclaron con políticos como el primer ministro británico, Rishi Sunak.

Explicación de la Cumbre de IA de Corea del Sur

El primer ministro británico, Rishi Sunk, en el centro, habla durante una sesión plenaria de la Cumbre de Seguridad de la IA en Bletchley Park en Milton Keynes, Inglaterra, el 2 de noviembre de 2023. Corea del Sur organizará una minicumbre esta semana sobre riesgos y regulación. de inteligencia artificial, tras una reunión inaugural sobre seguridad de la IA en Gran Bretaña en 2023 que atrajo a una multitud diversa de luminarias de la tecnología, investigadores y funcionarios. (Foto AP/Alastair Grant)

Delegados de más de dos docenas de países, incluidos Estados Unidos y China, firmaron la Declaración de Bletchley y acordaron trabajar juntos para contener los riesgos potencialmente “catastróficos” que plantean los avances galopantes en inteligencia artificial.

En marzo, la Asamblea General de la ONU aprobó su primera resolución sobre inteligencia artificial, brindando apoyo a un esfuerzo internacional para garantizar que la nueva y poderosa tecnología beneficie a todas las naciones, respete los derechos humanos y sea “segura y digna de confianza”.

A principios de este mes, Estados Unidos y China celebraron sus primeras conversaciones de alto nivel sobre inteligencia artificial en Ginebra para discutir cómo abordar los riesgos de esta tecnología en rápida evolución y establecer estándares compartidos para gestionarla. Allí, los funcionarios estadounidenses expresaron su preocupación por el “uso indebido de la IA” por parte de China, mientras que los representantes chinos reprendieron a los EE.UU. por las “restricciones y presiones” sobre la inteligencia artificial, según sus gobiernos.

¿QUÉ SE DISCUTARÁ EN LA CUMBRE DE SEÚL?

La reunión del 21 y 22 de mayo está copatrocinada por los gobiernos de Corea del Sur y el Reino Unido.

El primer día, el martes, el presidente surcoreano, Yoon Suk Yeol, y Sunak se reunirán virtualmente con los líderes. Se espera que las principales empresas de IA proporcionen actualizaciones sobre cómo han cumplido los compromisos asumidos en la cumbre de Bletchley para garantizar la seguridad de sus modelos de IA.

El segundo día, los ministros digitales se reunirán en persona para una reunión organizada por el Ministro de Ciencia de Corea del Sur, Lee Jong-ho, y la Secretaria de Tecnología de Gran Bretaña, Michelle Donelan. Los temas subrayan cómo el enfoque se ha ampliado más allá de los riesgos extremos que fueron el foco de la cumbre de Bletchley. Los participantes compartirán mejores prácticas y planes de acción concretos. También compartirán ideas sobre cómo proteger a la sociedad de los impactos potencialmente negativos de la IA en áreas como el uso de energía, los trabajadores y la proliferación de información errónea y desinformación, según los organizadores.

La reunión ha sido denominada una mini cumbre virtual, que sirve como reunión intermedia hasta una edición presencial en toda regla que Francia se ha comprometido a celebrar.

La reunión de ministros digitales incluirá representantes de países como Estados Unidos, China, Alemania, Francia y España y empresas como OpenAI, fabricante de ChatGPT, Google, Microsoft y Anthropic.

¿QUÉ PROGRESOS HAN LOGRADO LOS ESFUERZOS DE SEGURIDAD DE LA IA?

El acuerdo alcanzado en la reunión del Reino Unido fue escaso en detalles y no propuso una forma de regular el desarrollo de la IA.

“Estados Unidos y China asistieron a la última cumbre. Pero cuando miramos algunos principios anunciados después de la reunión, eran similares a lo que ya se había anunciado después de algunas reuniones de la ONU y la OCDE”, dijo Lee Seong-yeob, profesor de la la Escuela de Graduados en Gestión de Tecnología de la Universidad de Corea de Seúl. “No había nada nuevo.”

Es importante celebrar una cumbre mundial sobre cuestiones de seguridad de la IA, dijo, pero será “considerablemente difícil” para todos los participantes llegar a acuerdos, ya que cada país tiene diferentes intereses y diferentes niveles de tecnologías e industrias nacionales de IA.

Mientras los gobiernos y los organismos globales consideran cómo regular la IA a medida que mejora en el desempeño de las tareas realizadas por humanos, los desarrolladores de los sistemas de IA más poderosos se están uniendo para establecer su propio enfoque compartido para establecer estándares de seguridad de la IA. La empresa matriz de Facebook, Meta Platforms, y Amazon anunciaron el lunes que se unirán al Frontier Model Forum, un grupo fundado el año pasado por Anthropic, Google, Microsoft y OpenAI.

El informe provisional de un panel de expertos sobre el estado de la seguridad de la IA, publicado el viernes para informar los debates en Seúl, identificó una serie de riesgos que plantea la IA de uso general, incluido su uso malicioso para aumentar la “escala y sofisticación” de fraudes y estafas, potenciar la difundir desinformación o crear nuevas armas biológicas.

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

El mal funcionamiento de los sistemas de IA podría generar sesgos en áreas como la atención sanitaria, la contratación laboral y los préstamos financieros, mientras que el potencial de la tecnología para automatizar una gran variedad de tareas también plantea riesgos sistémicos para el mercado laboral, según el informe.

Corea del Sur espera aprovechar la cumbre de Seúl para tomar la iniciativa en la formulación de normas y gobernanza global para la IA. Pero algunos críticos dicen que el país carece de una infraestructura de inteligencia artificial lo suficientemente avanzada como para desempeñar un papel de liderazgo en tales cuestiones de gobernanza.

Verifique también

Elecciones en Brandeburgo, bastión de la socialdemocracia – DW – 19/09/2024

El estado federado de Brandeburgo, situado en la frontera con Polonia, es gobernado por el …

Comments are closed.