Google escribió el martes que las democracias mundiales necesitaban liderar el cargo en el desarrollo de sistemas de inteligencia artificial utilizados para la seguridad nacional. La publicación del blog pareció cambiar una política que Google ha tenido durante varios años.
Un documento de 2019 que explicaba varios principios de IA que Google había establecido anteriormente. Esos principios incluían una promesa de que la compañía no desarrollaría sistemas de inteligencia artificial que podrían usarse para causar daño. La promesa ya no aparece en la última edición de la compañía de sus principios de IA.
¿Por qué el cambio? La compañía dijo el martes que quería centrarse en promover los derechos humanos, la igualdad y la libertad. Favorece a las naciones democráticas, y a las empresas que comparten esos valores, para liderar el desarrollo de los sistemas de IA. Dichos gobiernos y organizaciones deberían trabajar juntos para construir sistemas de IA que protejan a las personas, dijo Google.
Entonces, ¿Google ya no se centra en la seguridad? El martes, Google publicó un documento actualizado del Marco de Seguridad Frontier que describe las formas de frenar el desarrollo de sistemas de inteligencia artificiales nocivos y retener el control humano sobre los sistemas.