
Google actualizó sus principios de inteligencia artificial el martes para eliminar los compromisos de no usar la tecnología de manera «que causa o es probable que causen daños generales». Una sección fregada de las pautas de ética de IA revisadas previamente comprometió a Google a no diseñar o desplegar IA para su uso en vigilancia, armas y tecnología destinadas a herir a las personas. El cambio fue visto por primera vez por The Washington Post y capturado aquí por el archivo de Internet.
Coincidiendo con estos cambios, el CEO de Google Deepmind, Demis Hassabis, y el ejecutivo senior de tecnología y la sociedad de Google, James Manyika, publicó una publicación de blog que detalla nuevos «principios básicos» en los que sus principios de IA se centrarían. Estos incluyen innovación, colaboración y desarrollo de IA «responsable», este último no tiene compromisos específicos.
«Hay una competencia global para el liderazgo de IA dentro de un panorama geopolítico cada vez más complejo», dice la publicación del blog. “Creemos que las democracias deberían liderar en el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntas para crear una IA que proteja a las personas, promueva el crecimiento global y apoya la seguridad nacional «.
Hassabis se unió a Google después de que adquirió DeepMind en 2014. En una entrevista con Cableado En 2015, dijo que la adquisición incluía términos que impidieron que la tecnología profunda se utilizara en aplicaciones militares o de vigilancia.