El presidente electo de Estados Unidos, Donald Trump, y Elon Musk observan el lanzamiento del sexto vuelo de prueba del cohete SpaceX Starship en Brownsville, Texas, el 19 de noviembre de 2024.
Brandon Bell | Vía Reuters
Se espera que el panorama político estadounidense experimente algunos cambios en 2025, y esos cambios tendrán importantes implicaciones para la regulación de la inteligencia artificial.
El presidente electo Donald Trump tomará posesión el 20 de enero. Se unirá a él en la Casa Blanca un grupo de importantes asesores del mundo de los negocios, incluidos Elon Musk y Vivek Ramaswamy, que se espera que influyan en el pensamiento político en torno a tecnologías incipientes como como IA y criptomonedas.
Al otro lado del Atlántico, ha surgido una historia de dos jurisdicciones, con el Reino Unido y la Unión Europea divergiendo en su pensamiento regulatorio. Mientras que la UE ha adoptado una mano más dura con los gigantes de Silicon Valley detrás de los sistemas de inteligencia artificial más potentes, Gran Bretaña ha adoptado un enfoque más ligero.
En 2025, el estado de la regulación de la IA a nivel mundial podría sufrir una importante revisión. CNBC echa un vistazo a algunos de los acontecimientos clave a tener en cuenta, desde la evolución de la histórica Ley de IA de la UE hasta lo que una administración Trump podría hacer por Estados Unidos.
La influencia de Musk en la política estadounidense
Elon Musk camina por el Capitolio el día de una reunión con el líder republicano electo del Senado, John Thune (R-SD), en Washington, EE.UU., el 5 de diciembre de 2024.
Benoît Tessier | Reuters
Aunque no es un tema que haya aparecido mucho durante la campaña electoral de Trump, se espera que la inteligencia artificial sea uno de los sectores clave que se beneficiarán de la próxima administración estadounidense.
Por un lado, Trump nombró a Musk, director ejecutivo de un fabricante de automóviles eléctricos. teslapara codirigir su «Departamento de Eficiencia Gubernamental» junto a Ramaswamy, un empresario biotecnológico estadounidense que abandonó la carrera electoral presidencial de 2024 para respaldar a Trump.
Matt Calkins, director ejecutivo de Appian, dijo a CNBC que la estrecha relación de Trump con Musk podría colocar a Estados Unidos en una buena posición en lo que respecta a la IA, citando la experiencia del multimillonario como cofundador de OpenAI y director ejecutivo de xAI, su propio laboratorio de IA, como indicadores positivos.
«Finalmente tenemos una persona en la administración estadounidense que realmente sabe acerca de la IA y tiene una opinión al respecto», dijo Calkins en una entrevista el mes pasado. Musk fue uno de los partidarios más destacados de Trump en la comunidad empresarial, e incluso apareció en algunos de sus mítines de campaña.
Por el momento no hay confirmación sobre lo que Trump ha planeado en términos de posibles directivas presidenciales u órdenes ejecutivas. Pero Calkins cree que es probable que Musk sugiera medidas de seguridad para garantizar que el desarrollo de la IA no ponga en peligro la civilización, un riesgo sobre el que ha advertido varias veces en el pasado.
«Tiene una reticencia incuestionable a permitir que la IA cause resultados humanos catastróficos; definitivamente está preocupado por eso, hablaba de ello mucho antes de ocupar una posición política», dijo Calkins a CNBC.
Actualmente, no existe una legislación federal integral sobre IA en EE. UU. Más bien, ha habido un mosaico de marcos regulatorios a nivel estatal y local, con numerosos proyectos de ley sobre IA presentados en 45 estados, además de Washington DC, Puerto Rico y las Islas Vírgenes de EE. UU.
La Ley de IA de la UE
La Unión Europea es hasta ahora la única jurisdicción a nivel mundial que impulsa normas integrales para la inteligencia artificial con su Ley de IA.
Jaqué Silva | Nurfoto | Imágenes falsas
Hasta ahora, la Unión Europea ha sido la única jurisdicción a nivel mundial que ha impulsado normas legales integrales para la industria de la IA. A principios de este año, la Ley de IA del bloque, un marco regulatorio de IA único en su tipo, entró oficialmente en vigor.
La ley aún no está completamente en vigor, pero ya está causando tensión entre las grandes empresas tecnológicas estadounidenses, a quienes les preocupa que algunos aspectos de la regulación sean demasiado estrictos y puedan anular la innovación.
En diciembre, la Oficina de IA de la UE, un organismo recién creado que supervisa los modelos bajo la Ley de IA, publicó un segundo borrador de código de prácticas para modelos de IA de propósito general (GPAI), que se refiere a sistemas como la familia GPT de grandes modelos de lenguaje de OpenAI. o LLM.
El segundo borrador incluía exenciones para proveedores de ciertos modelos de IA de código abierto. Estos modelos suelen estar disponibles al público para permitir a los desarrolladores crear sus propias versiones personalizadas. También incluye el requisito de que los desarrolladores de modelos GPAI «sistémicos» se sometan a evaluaciones de riesgos rigurosas.
La Asociación de la Industria de Computación y Comunicaciones, cuyos miembros incluyen Amazonas, Google y Meta — advirtió que «contiene medidas que van mucho más allá del alcance acordado en la ley, como medidas de gran alcance sobre derechos de autor».
La Oficina de AI no estuvo disponible de inmediato para hacer comentarios cuando CNBC la contactó.
Vale la pena señalar que la Ley de IA de la UE está lejos de alcanzar su plena implementación.
Como Shelley McKinley, directora jurídica de la popular plataforma de repositorio de códigos GitHub, dijo a CNBC en noviembre, «la siguiente fase del trabajo ha comenzado, lo que puede significar que hay más por delante de nosotros que detrás de nosotros en este momento».
Por ejemplo, en febrero entrarán en vigor las primeras disposiciones de la ley. Estas disposiciones cubren aplicaciones de IA de «alto riesgo», como la identificación biométrica remota, la toma de decisiones sobre préstamos y la puntuación educativa. Está previsto publicar un tercer borrador del código sobre modelos GPAI ese mismo mes.
Los líderes tecnológicos europeos están preocupados por el riesgo de que las medidas punitivas de la UE sobre las empresas tecnológicas estadounidenses puedan provocar una reacción de Trump, lo que a su vez podría hacer que el bloque suavice su enfoque.
Tomemos como ejemplo la regulación antimonopolio. La UE ha sido un actor activo que ha tomado medidas para frenar el dominio de los gigantes tecnológicos estadounidenses, pero eso es algo que podría resultar en una respuesta negativa de Trump, según Andy Yen, director ejecutivo de la empresa suiza de VPN Proton.
«[Trump’s] «La opinión es que probablemente quiera regular él mismo sus empresas tecnológicas», dijo Yen a CNBC en una entrevista en noviembre en la conferencia tecnológica Web Summit en Lisboa, Portugal. «No quiere que Europa se involucre».
Revisión de derechos de autor del Reino Unido
El primer ministro británico, Keir Starmer, concede una entrevista a los medios mientras asiste a la 79.ª Asamblea General de las Naciones Unidas en la Sede de las Naciones Unidas en Nueva York, EE.UU., el 25 de septiembre de 2024.
León Neal | Vía Reuters
Un país a tener en cuenta es el Reino Unido. Anteriormente, Gran Bretaña ha evitado introducir obligaciones legales para los fabricantes de modelos de IA por temor a que la nueva legislación pueda ser demasiado restrictiva.
Sin embargo, el gobierno de Keir Starmer ha dicho que planea elaborar una legislación para la IA, aunque los detalles siguen siendo escasos por ahora. La expectativa general es que el Reino Unido adopte un enfoque más basado en principios para la regulación de la IA, a diferencia del marco basado en riesgos de la UE.
El mes pasado, el gobierno abandonó su primer indicador importante sobre hacia dónde se dirige la regulación, anunciando una consulta sobre medidas para regular el uso de contenido protegido por derechos de autor para entrenar modelos de IA. Los derechos de autor son un gran problema para la IA generativa y los LLM, en particular.
La mayoría de los LLM utilizan datos públicos de la web abierta para entrenar sus modelos de IA. Pero eso a menudo incluye ejemplos de obras de arte y otro material protegido por derechos de autor. Artistas y editores como el New York Times alegan que estos sistemas están eliminando injustamente su valioso contenido sin consentimiento para generar resultados originales.
Para abordar este problema, el gobierno del Reino Unido está considerando hacer una excepción a la ley de derechos de autor para la capacitación de modelos de IA, al tiempo que permite a los titulares de derechos optar por no utilizar sus obras con fines de capacitación.
Calkins, de Appian, dijo que el Reino Unido podría terminar siendo un «líder global» en la cuestión de la infracción de derechos de autor por parte de los modelos de IA, y agregó que el país no está «sujeto al mismo bombardeo abrumador de lobby de los líderes nacionales de IA que lo está Estados Unidos».
Las relaciones entre Estados Unidos y China son un posible punto de tensión
El presidente estadounidense Donald Trump, a la derecha, y Xi Jinping, presidente de China, pasan junto a miembros del Ejército Popular de Liberación (EPL) durante una ceremonia de bienvenida frente al Gran Salón del Pueblo en Beijing, China, el jueves 9 de noviembre de 2017.
Qilai Shen | Bloomberg | Imágenes falsas
Por último, a medida que los gobiernos del mundo buscan regular los sistemas de inteligencia artificial de rápido crecimiento, existe el riesgo de que las tensiones geopolíticas entre Estados Unidos y China aumenten bajo Trump.
En su primer mandato como presidente, Trump aplicó una serie de medidas políticas duras contra China, incluida la decisión de agregar a Huawei a una lista negra comercial que le restringía hacer negocios con proveedores de tecnología estadounidenses. También lanzó una oferta para prohibir TikTok, propiedad de la empresa china ByteDance, en Estados Unidos, aunque desde entonces ha suavizado su posición sobre TikTok.
China está compitiendo para vencer a Estados Unidos por el dominio en IA. Al mismo tiempo, Estados Unidos ha tomado medidas para restringir el acceso de China a tecnologías clave, principalmente chips como los diseñados por Nvidia, necesarios para entrenar modelos de IA más avanzados. China ha respondido intentando construir su propia industria de chips local.
A los tecnólogos les preocupa que una fractura geopolítica entre Estados Unidos y China en materia de inteligencia artificial pueda generar otros riesgos, como la posibilidad de que uno de los dos desarrolle una forma de IA más inteligente que los humanos.
Max Tegmark, fundador de la organización sin fines de lucro Future of Life Institute, cree que Estados Unidos y China podrían en el futuro crear una forma de IA que pueda mejorarse y diseñar nuevos sistemas sin supervisión humana, lo que podría obligar a los gobiernos de ambos países a idear individualmente reglas sobre Seguridad de la IA.
«Mi camino optimista a seguir es que Estados Unidos y China impongan unilateralmente estándares de seguridad nacionales para evitar que sus propias empresas causen daños y generen AGI incontrolables, no para apaciguar a las superpotencias rivales, sino simplemente para protegerse», dijo Tegmark a CNBC en una entrevista en noviembre.
Los gobiernos ya están intentando trabajar juntos para descubrir cómo crear regulaciones y marcos en torno a la IA. En 2023, el Reino Unido organizó una cumbre mundial sobre seguridad de la IA, a la que asistieron las administraciones de EE. UU. y China, para discutir posibles barreras de seguridad en torno a esta tecnología.
– Arjun Kharpal de CNBC contribuyó a este informe.